« Deepfake de Sobianine » : des hackers ont cloné des responsables régionaux pour tromper les clients des banques

Les cybercriminels ont adopté des technologies d’intelligence artificielle (IA). Ils ont commencé à utiliser massivement les images de fonctionnaires et d’hommes d’affaires célèbres pour attirer l’argent des Russes. Découvrez son fonctionnement dans l’article NI.
Un nouveau type de fraude se propage rapidement en ligne en utilisant les deepfakes – des images de personnes célèbres animées grâce à la technologie de l’IA.
Il existe déjà des cas où des Russes sont persuadés de « transférer de l’argent sur un compte sécurisé » ou d’investir leurs économies dans une « entreprise ultra-rentable » grâce à des images électroniques avec l’apparence et la voix de dirigeants de régions russes, d’artistes célèbres et d’entrepreneurs à succès.
« Au cours de la semaine dernière, une nouvelle vague de fausses vidéos mettant en scène des chefs de régions russes est apparue sur les réseaux sociaux. « Des fraudeurs ont créé de faux canaux Telegram des gouverneurs des régions de Vologda, Smolensk, Samara et d'autres, où ils ont diffusé de la désinformation », a rapporté l'UBK du ministère de l'Intérieur de la Russie (cyberpolice du ministère de l'Intérieur de la Fédération de Russie).
Le ministère du Développement numérique a précisé que le premier deepfake avec le maire de Moscou Sergueï Sobianine est apparu sur Internet il y a un an et demi.
Le fondateur de l'Institut des technologies financières et d'investissement, Alexeï Primak, rappelle qu'auparavant, pour atteindre leurs objectifs néfastes, les escrocs envoyaient « seulement » un SMS ou un e-mail d'une personne « proche » qui était en difficulté et avait besoin d'argent. Cependant, leurs capacités techniques ont désormais considérablement augmenté.
« Désormais, les escrocs produisent des sons, synthétisent la voix et créent des messages vidéo », prévient l’expert.
L’arsenal des technologies d’IA à la disposition des fraudeurs s’élargit rapidement. Photo : Image de Midjourney
Aujourd’hui, le « clonage » numérique des images d’autres personnes à l’aide des technologies d’IA est devenu très répandu. La police informatique a précisé que la diffusion d'informations prétendument officielles peut poursuivre divers objectifs, allant du phishing à l'influence psychologique visant à déstabiliser la situation.
Alexeï Filatov, chef du département de personnalité et d'analyse comportementale de l'Académie des technologies sociales, psychiatre, psychologue et expert en détection de mensonges, a déclaré à NI que le pays avait déjà enregistré auparavant des incidents de masse d'envoi de faux messages audio de la part des dirigeants d'entreprises municipales, d'universités, d'écoles, d'hôpitaux et d'autres organisations.
« Les faux fichiers audio bénéficient d’un degré de confiance plus élevé, car ils sont plus attrayants et leur authenticité est moins facile à vérifier », a expliqué l’expert.
Il a souligné que les attaquants collectent d’abord des échantillons de la voix d’une personne (par exemple, à partir de discours publics, d’interviews, d’enregistrements audio), puis, à l’aide de réseaux neuronaux, synthétisent de fausses phrases qui imitent le timbre, l’intonation et la manière de parler de la personne.
« Les modèles modernes vous permettent de créer de tels échantillons en quelques minutes et, en combinaison avec la génération de vidéos deepfake, les escrocs peuvent même imiter des appels vidéo. « Aujourd’hui, il existe au moins une douzaine de sites ouverts et de programmes spécialisés sur Internet qui permettent à presque n’importe qui ayant des compétences informatiques moyennes de le faire », a précisé Alexeï Filatov.
Selon le chef du département analytique de la société d'investissement « Rikom-Trust », Ph.D. n. Oleg Abelev , les acteurs du marché financier peuvent installer une protection contre les deepfakes.
« Aujourd'hui, il s'agit d'un logiciel qui permet une meilleure identification des clients du fait qu'ils fournissent des informations supplémentaires pour finaliser une transaction, une identification multifactorielle, lorsque le système de sécurité vérifie non seulement le code, mais aussi l'appareil lui-même à partir duquel la demande de données personnelles est effectuée, l'adresse IP, la localisation, ainsi que les systèmes anti-fraude qui sont formés sur des opérations typiques.
Et si quelque chose d'inhabituel se produit, cette opération est vérifiée dans la base de données d'échantillons d'activités frauduleuses et s'il y a une correspondance, l'opération est automatiquement bloquée jusqu'à ce que le propriétaire du compte fournisse la confirmation nécessaire", a déclaré l'expert.
Il est convaincu que lorsque des logiciels capables de reconnaître les deepfakes apparaîtront, nous pourrons alors dire que l’IA protège les intérêts et les fonds des clients des banques et autres sociétés financières.
Cependant, les technologies de protection des utilisateurs sont encore en retard par rapport au rythme de l’activité technique des fraudeurs.
« Les sociétés de développement testent déjà des algorithmes de détection de contrefaçon en analysant les micro-vibrations de la voix, les anomalies de synthèse vocale et les artefacts de rendu visuel. Certaines banques et messageries développent des mécanismes d’authentification basés sur des facteurs supplémentaires, notamment une demande de prononciation de mots aléatoires, l’analyse de caractéristiques biométriques et la vérification des métadonnées des fichiers audio. « Cependant, il n’existe pas encore de solution massive et fiable », a averti l’expert Alexeï Filatov .
Selon le ministère de l'Intérieur, en réponse aux plaintes des utilisateurs concernant la prolifération de « clones » de fonctionnaires, l'administration de la messagerie Telegram a déjà identifié et marqué les chaînes suspectes contenant des deepfakes comme non fiables. Certains d’entre eux ont été complètement supprimés. Cependant, les escrocs qui tentent de voler le portefeuille des Russes ne restent pas les bras croisés : ils créent de plus en plus de fausses images qui imitent l'apparence et la voix de l'original avec une précision méticuleuse.
« Nous recommandons aux utilisateurs de ne faire confiance qu’à des sources fiables. « Ce ne serait pas une mauvaise idée de vérifier l’inclusion de la chaîne dans la liste des pages personnelles des utilisateurs des réseaux sociaux, dont l’audience de chacune est supérieure à dix mille utilisateurs », a conseillé la police cybernétique.
Le psychologue Alexeï Filatov a ajouté que dans toute situation, l'essentiel est de rester vigilant et de garder la tête froide.
« Si vous recevez soudainement un appel du « gouverneur », d’un agent des forces de l’ordre, un message vocal d’un directeur ou d’un « employé de banque » vous demandant de faire quelque chose d’urgence, vous devez vous méfier : tout cela est une arnaque », est convaincu l’expert.
Les experts conseillent de ne pas paniquer lorsqu’on a affaire à des escrocs. Photo : Image de Midjourney
Pour éviter de devenir victime de criminels, le spécialiste recommande de jouer encore une fois la sécurité.
« Utilisez des canaux de vérification supplémentaires : rappelez les contacts officiels, posez des questions auxquelles le faux ne connaît peut-être pas les réponses. « Ne faites pas aveuglément confiance aux appels vidéo, surtout si la qualité de l’image est étrange et que les expressions faciales semblent artificielles », conseille Alexey Filatov .
L'expert Alexey Primak recommande de garder le contrôle de chaque situation et de ne pas laisser la panique briser vos défenses.
« Parlons séparément de la fraude à l’investissement. Grâce aux deepfakes, des vidéos de personnes célèbres apparaissent sur Internet, par exemple Pavel Durov , Oleg Tinkov* et d'autres personnalités célèbres. Et si soudainement une personne célèbre fait de la publicité, par exemple, pour un nouveau terminal de trading de crypto-monnaies, les personnes crédules perdent leur vigilance. Le but de tout cela est de tromper les investisseurs.
N'oubliez pas : une publicité d'une personne célèbre, surtout si le sujet de la publicité n'a aucun rapport avec elle et ne concerne pas son activité, n'est pas une raison pour investir. « Si le résultat de l’investissement semble trop intéressant et tentant, et que la rentabilité est trop belle pour être vraie, il s’agit généralement à 100 % d’une arnaque », prévient Alexey Primak.
La voix de l'actrice russe Alena Andronova, enregistrée pour une voix off pour une application bancaire, a été volée par des créateurs de sites pornographiques. Photo : Championnat
Il convient de noter qu’en Occident, la technologie d’utilisation des deepfakes est répandue depuis longtemps et est tout à fait légale. À l’origine, il a été créé, entre autres, comme moyen de protéger la santé et la vie des acteurs de cinéma lors de l’exécution de cascades complexes. Cependant, la pratique de l'utilisation de deepfakes s'est ensuite tellement répandue que les clones numériques ont commencé à remplacer des personnes vivantes, ce qui a conduit à des grèves d'acteurs.
La Russie a également connu son lot de scandales artistiques.
L'actrice a déclaré qu'elle avait déposé une plainte pour protéger son honneur et sa dignité contre la banque Tinkoff. Elle a accusé l'établissement de crédit d'avoir volé des échantillons de sa voix, qui, contre la volonté de l'actrice, ont « migré » des services audio de la banque vers des voix off pour des publicités de sites pornographiques .
Andronova a demandé au tribunal 6 millions de roubles à la banque. Elle a également annoncé son intention de s'unir aux acteurs de doublage et à l'Union des annonceurs russes pour demander une protection législative des voix. Andronova a déclaré qu'il est nécessaire de protéger la voix du citoyen au même titre que son image et d'interdire aux personnes extérieures d'utiliser un enregistrement vocal pour synthétiser la parole, à moins que cela ne soit clairement indiqué parmi les objectifs de l'enregistrement.
*Ajouté au registre des agents étrangers par le ministère russe de la Justice.
newizv.ru