Les deepfakes utilisent l'intelligence artificielle pour altérer des vidéos de manière très convaincante, ce qui rend difficile la distinction entre ce qui est réel et ce qui est faux en ligne.
Les deepfakes reposent essentiellement sur des algorithmes d'intelligence artificielle, en particulier sur une technique appelée deep learning. Concrètement, des réseaux de neurones analysent des milliers d'images ou de vidéos d'une personne pour apprendre ses traits, expressions et mouvements. Une fois cette "formation" terminée, ces modèles peuvent ensuite remplacer le visage d'une personne par celui d'une autre, de manière ultra-réaliste. L'efficacité du truc dépend de la quantité et de la qualité des données disponibles : plus il y a d'exemples, plus le résultat est bluffant. Le processus mobilise notamment deux réseaux qui bossent ensemble : le premier, le générateur, fabrique les fausses images ou vidéos, pendant que le second, le discriminateur, tente de distinguer le vrai du faux. Plus ils bossent ensemble, plus les faux deviennent réalistes, compliquant fortement la détection à l'œil nu.
Les deepfakes créent un vrai problème en rendant hyper difficile de savoir si une vidéo est authentique ou non. Et quand on sait plus reconnaître le vrai du faux, ça fout en l'air toute la notion de confiance en ce qu'on regarde en ligne. Du coup, chacun se méfie davantage des contenus vidéo qui circulent, même quand ils sont tout à fait légitimes. Résultat : le doute devient constant, et tout le monde finit par être un peu parano. Finalement, c'est toute la crédibilité des infos partagées sur le net qui en prend un coup.
Les deepfakes permettent de créer des vidéos où l'on fait dire ou faire à des gens des choses qu'ils n'ont jamais faites. Ça ouvre la porte à toutes sortes de manipulations en ligne. Par exemple, fabriquer de fausses déclarations d'un dirigeant politique peut entraîner de gros dégâts en diffusant des fake news massivement sur les réseaux sociaux ou dans les médias traditionnels. Un simple deepfake publié en ligne peut devenir viral en quelques heures, compliqué ensuite à arrêter ou à corriger. Un des risques inquiétants ici, c'est la capacité à monter très rapidement une vidéo crédible où l'on attribue à tort des propos ou des actes compromettants à des personnes publiques ou privées. Cette pratique pourrait amplifier des phénomènes de harcèlement, créer des conflits, voire perturber sérieusement les élections ou influencer l'opinion publique. Le danger le plus important reste que tout ceci mine la confiance que les gens accordent aux images vidéo, jusque-là considérées comme des preuves relativement fiables. Aujourd'hui, à cause des deepfakes, une vidéo ne suffit plus bien souvent à prouver quoi que ce soit, rendant de plus en plus difficile la distinction entre le vrai et le faux en ligne.
Les deepfakes peuvent sérieusement brouiller nos repères : aujourd'hui, des vidéos trafiquées hyper réalistes font croire que des politiciens ou célébrités ont dit ou fait des choses qu'ils n'ont jamais prononcées ou faites. Résultat, la confiance du public en prend un sacré coup, et la distinction entre vrai et faux peut devenir quasi impossible à repérer. Beaucoup de gens sont déjà tombés dans le panneau en partageant à fond sur les réseaux sociaux ces vidéos bidonnées, créant ainsi confusions, tensions sociales ou conflits politiques. Certains pays ont même vu apparaître des crises sérieuses à cause de vidéos truquées circulant avant les élections. La difficulté : une fois une fake news vidéo répandue massivement, bonne chance pour la corriger efficacement. Le doute qu'elle sème dans les esprits persiste sur le long terme. C'est tout le piège des deepfakes : une fois vus, leur impact reste souvent ancré, même après avoir montré qu'ils étaient complètement bidons.
Les deepfakes rendent compliqué de savoir à qui appartiennent réellement les images et voix utilisées, posant carrément le problème du droit à l’image et de l'usurpation d'identité. Côté juridique, c’est galère car les lois actuelles ne sont pas super adaptées à ce genre de nouvelles technologies, laissant plein de trous dans lesquels peuvent se faufiler ceux qui abusent des deepfakes. Ethiquement, le consentement devient délicat : impossible de savoir clairement si quelqu'un est d'accord ou non avec l'utilisation d’une version truquée de son visage ou de sa voix. Résultat, ça met en danger la notion même de vérité et d’authenticité, tout en posant des questions balèzes sur la responsabilité des plateformes qui diffusent ces contenus, souvent dépassées par la rapidité de diffusion des contenus fake.
Pour contrer la menace grandissante des deepfakes, certaines entreprises travaillent activement à la création d'un système de certification numérique permettant d'authentifier l'origine des vidéos publiées sur internet.
Certains outils de détection des deepfakes analysent des micro-expressions faciales ou la manière dont la lumière se reflète dans les yeux, indices difficilement reproduits par l'intelligence artificielle.
En 2018, un faux discours du président américain Barack Obama, réalisé avec la technologie deepfake, a été créé pour sensibiliser le public sur le risque potentiel des vidéos falsifiées.
La loi française condamne sévèrement l'utilisation malveillante des deepfakes : publier ces contenus à des fins de manipulation ou d'atteinte à la réputation peut entraîner des sanctions pénales.
Non. Bien que les deepfakes aient souvent une connotation négative en raison de leur potentiel manipulatoire, ils ont également des applications positives, par exemple dans l'industrie du divertissement (films, jeux vidéo), la création artistique ou les solutions techniques comme la traduction visuelle synchronisée en plusieurs langues.
Dans certains pays, des lois spécifiques commencent à apparaître pour réguler l'usage abusif des deepfakes, en particulier lorsqu'il est lié à la désinformation, la diffamation, la fraude ou l'exploitation sexuelle. Cependant, la législation reste encore limitée et disparate. Il est conseillé de se renseigner spécifiquement sur les lois en vigueur dans votre pays.
Plusieurs outils sont en cours de développement par des organismes de recherche et entreprises technologiques pour détecter la falsification des vidéos : Adobe, Microsoft, DARPA et bien d'autres ont entrepris des initiatives. Certaines plateformes en ligne fournissent des outils gratuits tels que Deepware AI ou Sensity AI permettant aux utilisateurs de vérifier l'authenticité des vidéos.
Les deepfakes peuvent avoir de graves conséquences psychologiques pour les victimes visées, y compris le stress, l’anxiété, la dépression ou l’humiliation publique. Lorsque ces manipulations sont utilisées dans un contexte d'abus, d'intimidation ou de diffamation, elles peuvent altérer durablement la confiance et l’image sociale des personnes concernées.
Bien qu'il soit parfois difficile de détecter un deepfake à l'œil nu, certains indices peuvent vous mettre sur la voie : des incohérences au niveau des mouvements du visage ou des lèvres, un regard fixe et artificiel, des anomalies lumineuses ou une qualité vidéo inhabituelle. Vous pouvez également utiliser des outils spécialisés disponibles en ligne pour examiner la vidéo.

Personne n'a encore répondu à ce quizz, soyez le premier !' :-)
Question 1/5