jotaay
jotaay

https://www.facebook.com/flyairsenegal
Le meilleur de l'info au sénégal
ACCÈS, MAINTIEN DES FILLES À L’ÉCOLE POUR UN ÉPANOUISSENT DANS UN ENVIRONNEMENT SCOLAIRE SÛR, SÉCURE ET INCLUSIF : La Première dame Marie Khone Faye s’engage à bâtir un avenir rayonnant pour les filles INDEMNISATION DES VICTIMES DE FEVRIER 2021 A MARS 2024 : «Nay Ler» dit niet et soupçonne une «récompense des militants d’un parti politique avec l’argent du contribuable» CONTRÔLE DE LA CIRCULATION AÉRIENNE DU SÉNÉGAL : Les contrôleurs aériens préviennent du danger qui guette l'aviation Du Sénégal au Vatican : Serigne Modou Kara Mbacké porte le message de Bamba à l’international OUVERTURE DE LA SESSION ORDINAIRE DE LA VILLE DE DAKAR : Le conseil municipal se passe de Barthélemy Dias et lance les travaux pour le vote de son budget Affaire Amy Gniby Ndiaye La Condamnation des ex-députés Massata Samb et Mamadou Niang confirmée par la Cour d’Appel de Dakar 1ère ÉDITION DU GOV’ATHON 2024 : Ousmane Sonko annonce l’assainissement de l’Administration sénégalaise Scandale d’espionnage à grande échelle  à Ngor-Almadies : Plus de 100 vidéos de couples filmés en plein acte à leur insu dans des appartements… INTERDICTION D’ACCÈS DES CITOYENS À LA MAIRIE DE DAKAR : Thierno Bocoum parle d’installation d’Etat policier OFFENSE AU CHEF DE L’ETAT : Un militaire français à la retraite insulte Diomaye Faye en le traitant de s… et se fait arrêter par un gendarme

Quand les escrocs utilisent la technologie Deepfake pour imiter votre voix



Les fausses vidéos qui mettent dans la bouche de personnalités des propos qu’elles n’ont jamais tenus prêtent généralement à rire. Surtout sur les réseaux sociaux. Une belle illustration est celle de la vidéo de l’ancien président Barack Obama. Mais le deepfake amuse aussi les escrocs informatiques. Une société allemande l’a appris à ces dépens. La fausse voix synthétisée du CEO d’une entreprise a permis à des arnaqueurs futés de détourner 220.000 euros. Et cette technique semble effrayer les géants du web.
Newsletter info Recevez chaque matin l’essentiel de l'actualité.
 
Deepfake -traduit en français par hypertrucage- est un mot-valise créé à partir des mots anglais ‘deep learning’et ‘fake’. Il a fait son entrée dans le vocabulaire geek à la fin 2017 lorsque des célébrités semblaient apparaître dans des clips pornographiques. Le vrai danger des deepfakes est moins la manipulation des images qui a toujours existé que la possibilité de rendre cette manipulation accessible au plus grand nombre. Et c’est à cela que l’on assiste aujourd’hui.
C’est le Wall Street Journal  qui a révélé cette " fraude au président " réalisée en Europe et particulièrement bien préparée. Pour convaincre l’employé d’effectuer un versement, les pirates ont utilisé une version synthétisée de la voix du patron de l’entreprise. Une bonne imitation semble-t-il, puisque le virement a été illico dirigé vers un compte externe à l’entreprise. Une seconde tentative d’extorsion auprès du même groupe n’a toutefois pas été couronnée de succès. Chat échaudé craint l’eau froide.
Renseignements pris, auprès de la cyber crime unit belge et de l’éditeur de logiciels de sécurité Eset, il n’y aurait pas eu, à ce jour, de cas semblable en Belgique, mais une tentative aurait été signalée voici un an en France. Dans un reportage de la BBC , Symantec, une autre entreprise de sécurité dit pourtant avoir traqué au moins trois attaques fomentées contre des entreprises privées utilisant l’identité du patron pour obtenir des transferts d’argent. Et si ce n’était qu’un début ?

La version technologique d’une fraude ancestrale

Pour Jean-Michel Merliot, responsable informatique chez Eset, cette nouvelle escroquerie, basée sur " la fraude au président " est l’une des premières tentatives qui atteint son but. Selon lui, ce n’est finalement que la version technologique d’une fraude ancestrale basée sur l’imitation vocale jusqu’alors réservée aux spécialistes du genre. "Techniquement c’est assez simple à faire. Générer une voix qui ressemble à celle d’une personne est facile, mais dans certains cas la qualité laisse à désirer."

De l’analyse de programme à l’analyse de données

Selon lui, le Deepfake s’inscrit dans la même problématique que la retouche d’image. " Il existe des algorithmes statistiques qui permettent de voir si une photo a été modifiée. On distingue que la structure d’une couleur est trop régulière pour être vraie. " A l’avenir, il en ira de même pour la vidéo et le son. Mais, explique l’expert en sécurité, il s’agit non plus de l’analyse de programmes, qui est le fonds de commerce des développeurs d’antivirus, mais de l’analyse de donnée. " Là, on va devoir s’y mettre ", résume Jean-Michel Merliot pour qui ce nouveau type de piratage permettrait, par exemple, de contourner les procédures de protection d’accès basées sur le visage ou la voix. Mais le plus grave pourrait être la capacité des hackers de détruire la réputation d’une personne en lui faisant tenir des propos indignes.
 

Zao et FacApp : les applis qui ne font plus rire

Mais déjà, la machine à Deepfake semble mise en route. Le 30 août, dernier, l’application chinoise ZAO a donné une nouvelle dimension à la technologie Deepfake en permettant le téléchargement gratuit (sur l’App store chinois uniquement) d’un logiciel permettant de remplacer n’importe quel visage d’une photo par celle de l’internaute. Une simple photo numérique permet de calquer sa propre photo sur celle d’un acteur connu. Très vite, Zao a atteint les sommets en termes de téléchargements.
Avec un sérieux bémol, puisque les conditions d’utilisation de l’appli précisent que les utilisateurs accordent à ZAO, le droit d’utiliser leurs photos et de vidéos synthétisées. Ce qui a suscité une levée de boucliers des utilisateurs, faisant chuter l’appréciation de l’appli à 1,9 étoile sur 5.
Un problème qui rappelle celui soulevé par l’application russe FaceApp à la fin du mois de juillet. L’application permet ici de " vieillir " un individu sur une photo grâce à des filtres. Même succès auprès des internautes, mais même critiques sur le manque de protection des données personnelles offertes par l’application.

La manipulation audio fait des émules

La manipulation audio est loin d’être anecdotique. Des applications maîtrisent déjà synthèse vocale partir d’une suite d’extraits audio fournis c’est le cas de la société Lyrebird , qui permet de créer une copie vocale en quelques minutes. Il suffit de lire à haute voix 30 extraits de texte en anglais. Il est ensuite possible à un escroc de faire lire n’importe quel texte à l’avatar vocal. C’est aussi le cas d’un générateur de texte baptisé GPT2, que ces développeurs ont toutefois décidé de ne pas rendre la version complète du logiciel.

Les Gaffa s’emparent de l’affaire

Plus encore que l’arnaque allemande, les géants du net craignent les débordements d’applis chinoises telle que Zao.
Ainsi Facebook et Microsoft ont décidé d’investir 10 millions de dollars pour répondre au "défi de détection Deepfake", peut-on lire dans le Financial Times. La mission de ce projet est de stimuler la création d’outils capables de repérer des vidéos manipulées. Les deux entreprises se sont associées à des chercheurs en intelligence artificielle d’Oxford et Berkeley et d’autres pour détecter les vidéos dites "profondes", qui menacent de créer des campagnes de désinformation de plus en plus réalistes.
Avec, en prime, un nouveau partenariat au pays de l’intelligence artificielle, une coalition qui compte deux autres Gafa parmi ses membres : Google et Apple, et les universités Cornell Tech et MIT. L’objectif est de concevoir des systèmes capables de détecter les légères imperfections d’une image falsifiée pour mettre en garde les internautes contre des messages détournés de la réalité. La principale crainte est de voir arriver sur les réseaux sociaux des vidéos ou des sons capables de tromper les électeurs sur les messages des politiciens. Mike Schroepfer, directeur technique chez Facebook, évoque sur son blog la crainte de voir les techniques de "deepfake" détruire la crédibilité des informations publiées en ligne.

Rien, jamais, ne remplacera le bon sens

C’est peut-être une nouvelle génération d’arnaque que la webosphère découvre désormais. Un monde où le détournement d’argent pourrait devenir moins grave que le détournement de réputation. Difficile, après avoir subi l’attaque d’une vidéo mensongère, de prouver sa bonne fois. Surtout lors d’une campagne électorale par exemple. " Mentez, mentez, il en restera toujours quelque chose " disait Voltaire. Et face à une ‘arnaque au président’,  il n’y a qu’une arme efficace, conclut Jean-Michel Merliot : " c’est la technique du bon sens, il faut pouvoir dire non à son patron, surtout sil demande de verser une somme importante sur un compte à l’étranger ".
 


ACTUALITE | POLITIQUE | SPORTS | SOCIETE | SERIE | RELIGION | REVUE DE PRESSE | ECONOMIE | CHRONIQUE | CULTURE | BOOMRANG | INTERNATIONAL | PEOPLE | TV-DIRECT | SANTE | World Cub Russie 2018 | SERIE TV SENEGAL | LES ECHOS | pub | Radios d’Ici et d’Ailleurs | Santé | Contribution


LIVE RADIO


Mue verte

Magnanimité

Cocagne

2024

Sortie de Cheikh Oumar Diagne sur les tirailleurs : L'analyse de Serigne Cheikh Fall (petit-fils de Cheikh Ibra Fall)

Ça caille !

Kaput

Pléthore

Vivier

Questions



SANTE

La dépression, une maladie encore méconnue qui touche 1,5% de la population sénégalaise

Hémorroïdes : la maladie taboue pour les jeunes avec des préjugés de connard qui stress et font mal au coeur !

TABAGISME : LES FUMEURS QUI ARRÊTENT LA CIGARETTE AVANT 40 ANS PEUVENT ESPÉRER VIVRE AUSSI LONGTEMPS QUE LES NON-FUMEURS

LUTTE CONTRE LE CANCER DU COL DE L’UTÉRUS À ZIGUINCHOR : 8 thermoablations et 802 coloscopies pratiquées avec 6 cas de suspension de cancers…

RÉUSSITE DEUX TRANSPLANTATIONS RÉNALES : UNE PREMIÈRE AU SÉNÉGAL : Macky Sall, satisfait, félicite le professeur et annonce le projet de transplantation oculaire