Comment reconnaître les deepfakes ? – eGospodarka.pl

Volodymyr Zelensky ordonne à l’Ukraine de se rendre. Tom Cruise vous apprend à utiliser les détergents et Salvador Dali prend vie – qu’est-ce que ces histoires ont en commun ? C’est un non-sens complet, et la technologie deepfake a été utilisée pour le créer.

Lire aussi :

Deepfake – un nouveau niveau de cybermenaces

Si les rançongiciels n’ont pas suffisamment stimulé les équipes de sécurité, un nouveau défi se profile à l’horizon : une vague de fraudeurs numériques utilisant cette technologie.

En mars, une vidéo a fait surface sur les réseaux sociaux montrant le président ukrainien Volodymyr Zelensky ordonnant à ses soldats de se rendre aux forces russes. Capitulation? Pas question, c’est juste… un deepfake. Et ce n’est qu’un des nombreux exemples de menaces potentielles que l’utilisation de cette technologie peut créer.

Les victimes ne sont pas seulement des chefs d’État, des « farceurs » comme des stars de cinéma et de sport, et même des personnages historiques. Une vidéo avec Tom Cruise a été publiée sur la plateforme TikTok, qui conseille comment gérer les détergents lors du nettoyage. Le film a été vu plus d’un demi-million de fois, le problème est que son personnage principal n’y a jamais participé.

De plus, la tendance des médias sociaux Deep Nostalgia, qui utilise la technologie deepfake développée par My Hertige et des photographies, pour « réanimer » les personnes décédées et enregistrer leurs réactions, gagne actuellement en popularité. Le personnage cligne des yeux, présente des expressions faciales étonnamment réelles, sourit chaleureusement et évoque surtout des émotions et des larmes de nostalgie.

Foi aveugle

C’est un signe que ce phénomène est de plus en plus avancé et prend de l’ampleur. Les cas précédents qui sont devenus viraux avaient souvent des signes révélateurs que quelque chose n’allait pas avec le matériel, comme un montage maladroit ou des expressions faciales ou des gestes inhabituels des personnages.

Deepfake est excellent pour se faire passer pour de vraies personnes. Cela deviendra probablement rapidement un problème pour tout le monde. Cette méthode utilise l’intelligence artificielle et des techniques d’apprentissage en profondeur pour générer de fausses images de personnes ou d’événements entiers. Les attaques de ce type ont augmenté de 13 % – dans le rapport VMware Global Incident Response Threat Report, 66 % des personnes interrogées ont déclaré y avoir été confrontées au cours des 12 derniers mois.

Le développement de la technologie deepfake laisse facilement imaginer son exploitation par des cybercriminels, notamment dans le but d’extorquer de l’argent. Selon la majorité des personnes interrogées dans l’étude VMware, les attaques deepfake étaient plus souvent sous forme de vidéo (58 %) que d’audio (42 %), et les méthodes de livraison les plus populaires étaient : l’e-mail (78 %), l’échange mobile (57%), voix (34%), canaux sociaux (34%).

Complémentarité de la cybercriminalité

Les ransomwares peuvent générer plus de gros titres, mais le piratage des e-mails d’entreprise est la forme de cyberfraude la plus coûteuse aujourd’hui – coûtant aux entreprises des milliards de dollars chaque année, selon les estimations du FBI. En utilisant le courrier électronique, les cybercriminels piratent les comptes appartenant à leurs supérieurs – ou usurpent sournoisement leurs adresses électroniques – et demandent aux employés d’autoriser des transactions financières importantes, qui peuvent souvent s’élever à des centaines de milliers.

Par exemple : dans sa correspondance, le superviseur informe que l’argent doit être envoyé immédiatement, éventuellement dans le cadre d’une transaction commerciale confidentielle qui ne doit être divulguée à personne. Il s’agit d’un stratagème d’ingénierie sociale classique conçu pour amener la victime à transférer de l’argent rapidement sans avoir besoin de la confirmation de quiconque pourrait savoir qu’il s’agissait d’une distribution fictive. Avant que quiconque ne le sache, les cybercriminels et l’argent se dissolvent dans les airs.

photo: Brian Jackson – Fotolia.com

Comment reconnaître les deepfakes ?

Deepfake utilise l’intelligence artificielle et des techniques d’apprentissage en profondeur pour générer de fausses images de personnes ou d’événements entiers.

De telles attaques réussissent souvent, mais de nombreuses personnes restent méfiantes face aux messages inhabituels et soudains du patron. Cependant, si les cybercriminels pouvaient utiliser des deepfakes pour faire leur demande fictive, il pourrait être beaucoup plus difficile pour les victimes de refuser car elles seraient convaincues qu’elles parlent réellement à leur patron devant la caméra. De nombreuses organisations incluent une liste des cadres supérieurs sur leur site Web. Les membres du conseil prennent souvent la parole lors d’événements ou dans les médias, il est donc facile de trouver des enregistrements de leurs discours.

Les criminels pourraient, à l’aide de techniques avancées d’apprentissage en profondeur, utiliser des informations et des documents accessibles au public pour créer un faux personnage tel qu’un membre du conseil d’administration. Ensuite, en utilisant les failles du courrier électronique, organisez un entretien vidéo avec l’employé et demandez-lui de faire une (fausse) transaction. Si la victime croit parler à son supérieur, il est peu probable qu’elle refuse d’obéir. Des fraudeurs ont déjà utilisé l’intelligence artificielle pour convaincre des collègues de parler à leur patron au téléphone. L’ajout d’un élément vidéo rendra encore plus difficile la détection qu’ils contactent réellement des escrocs.

Une fausse image révèle les inconvénients du télétravail

Les cybercriminels utilisent des deepfakes pour postuler à des postes d’assistance informatique à distance, des rôles qui donneraient accès aux données personnelles sensibles des employés et des clients qui pourraient être volées et exploitées. De plus, les pirates utiliseront de « fausses images » et d’autres contenus générés par l’IA pour influencer le tiers.

Alors que les progrès technologiques rendent de plus en plus difficile la distinction entre les deepfakes et la vraie vidéo, le FBI conseille de rechercher des distorsions dans la vidéo, des mouvements non naturels de la tête et du torse, ainsi que des problèmes de synchronisation des mouvements du visage et de la bouche et du son de fond. La fausse vidéo peut facilement devenir le nouveau vecteur de la cybercriminalité, ce sera donc toute une astuce pour stopper cette tendance. Il est possible que les organisations soient obligées de développer de nouvelles règles pour authentifier les décisions lors des réunions en ligne – les équipes du Centre des opérations de sécurité devraient surveiller et analyser plus attentivement l’état de sécurité de l’organisation à cet égard.

Dans tous les cas, c’est aussi un défi à la crédibilité du travail à distance – qu’est-ce que cela signifie que nous ne pouvons pas faire confiance à ce que nous voyons à l’écran ? Plus les entreprises et leurs employés prendront conscience des dangers potentiels des deepfakes aujourd’hui, plus il sera facile de se protéger contre les attaques – sinon nous aurons des ennuis.

Krzysztof Szukała, inspecteur CISSP pour la protection des données personnelles (ISC) à

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *