Comment repérer une vidéo générée par IA alors que les deepfakes pullulent en ligne et trompent des millions de personnes ?

Nous entrons dans une toute nouvelle ère du contenu vidéo en ligne, et les experts affirment qu'elle est aussi particulièrement dangereuse. On observe une explosion de vidéos générées par l'IA sur les réseaux sociaux , et la désinformation numérique atteint des sommets. Voici comment distinguer le vrai du faux.
Un expert en technologies a averti que des outils vidéo d'IA ultra-réalistes, disponibles via des plateformes comme Sora 2, ont été utilisés par des fraudeurs pour alimenter une vague d' escroqueries en ligne basées sur des deepfakes.
Le nombre de vidéos truquées (deepfakes) a explosé, passant d'un demi-million en 2023 à plus de huit millions cette année. Les tentatives d'escroquerie ont quant à elles connu une hausse de 3 000 % en seulement deux ans, selon la société de cybersécurité DeepStrike. Les experts ont révélé qu'il est de plus en plus difficile de distinguer le vrai du faux, car l'œil humain ne détecte plus les deepfakes de haute qualité que dans un cas sur quatre. Des millions de personnes pourraient donc être dupées sans s'en rendre compte.

Les deepfakes et les vidéos générées par l'IA ont commencé comme une tendance internet amusante, mais se sont rapidement transformés en une industrie criminelle de plusieurs milliards de livres sterling, les escrocs utilisant désormais l'IA pour cloner les voix, les visages et les émotions, trompant ainsi leurs victimes pour leur soutirer de l'argent ou diffuser de fausses informations.
Les appels vidéo deepfake en temps réel sont également susceptibles de se généraliser, où des escrocs se font passer pour des proches ou des supérieurs hiérarchiques en direct à l'écran, avec des voix et des manières clonées - et cela est dû aux outils disponibles sur des plateformes telles que Sora, une application de conversion de texte en vidéo capable de créer des vidéos réalistes en moins d'une minute.
Pour découvrir d'autres articles de ce genre, abonnez-vous à notre newsletter hebdomadaire, The Weekly Gulp , qui vous proposera une sélection d'articles tendance, d'interviews percutantes et de contenus lifestyle viraux, sélectionnés par l'équipe Audience U35 du Mirror et livrés directement dans votre boîte mail.
L'équipe de la société de technologies et de logiciels Outplayed a détaillé plusieurs méthodes clés pour identifier facilement une vidéo générée par l'IA. En voici quelques-unes :
- Clignements et mouvements oculaires : les sujets clignent moins des yeux ou les bougent de façon robotique.
- Mains et doigts : recherchez les doigts déformés ou fusionnés – l’IA a encore du mal avec les mains.
- Erreurs d'éclairage : les ombres sont mal positionnées ou les visages paraissent trop lumineux.
- L’eau et les reflets : le liquide paraît « trop parfait » ou d’une immobilité anormale.
- Problèmes de synchronisation labiale : les lèvres ne correspondent pas tout à fait aux mots, notamment sur les sons « p » ou « b ».
- Peau lisse : les visages IA ont un aspect plastique, sans pores ni texture.
- Arrière-plans défectueux : des objets déformés ou des bords clignotants trahissent le jeu, tout comme les filigranes non dissimulés.
- Mouvement du tissu : Les vêtements bougent de façon rigide ou anormale au vent.
- Transitions de scènes : Des sauts ou des « bips » maladroits en plein plan suggèrent un montage artificiel.
- Contexte étrange : Des personnes apparaissant de manière inhabituelle ou dans des endroits insolites.
- Intuition : Si quelque chose cloche, c'est probablement le cas.
Un expert d'Outplayed a insisté sur la rapidité d'évolution de ce type de technologie . « Ce qui prenait autrefois des semaines aux studios hollywoodiens peut désormais être réalisé par n'importe qui avec un ordinateur portable. Les vidéos produites par les outils d'IA les plus récents, comme Sora 2, sont quasiment indiscernables de la réalité – et c'est terrifiant, surtout si cette technologie est utilisée à mauvais escient », a-t-il déclaré.
Les escroqueries sur les réseaux sociaux, en milieu professionnel et même sentimental se multiplient, ces criminels exploitant la croyance ancestrale selon laquelle « on croit ce que l'on voit ». L'expert ajoute : « Les gens font confiance aux preuves vidéo. C'est pourquoi nous entrons dans une nouvelle ère dangereuse, marquée par la prolifération rapide des deepfakes. Ces derniers court-circuitent la logique et misent directement sur l'émotion. »
Sora a désormais dépassé le million de téléchargements, et les utilisateurs créent de courtes vidéos qui suscitent déjà la controverse. Nombre d'entre elles mettent en scène des célébrités comme Jake Paul et Michael Jackson, brouillant ainsi la frontière entre fiction et réalité.
Suite à l'apparition de nombreux deepfakes irrespectueux, les créateurs de la plateforme ont été contraints d'interdire les vidéos mettant en scène Martin Luther King Jr, soulignant ainsi les défis éthiques croissants liés à cette technologie.
Aidez-nous à améliorer notre contenu en répondant au sondage ci-dessous. Nous serions ravis d'avoir votre avis !
Daily Mirror




