Le deepfake découle de l’essor des modèles d’apprentissage automatique, plus précisément des GAN (Generative Adversarial Networks). Un GAN est formé de deux réseaux neuronaux : un générateur et un discriminateur. Le générateur façonne des images ou des séquences fictives tandis que le discriminateur évalue l’authenticité de ces propositions. Par l’entraînement conjoint de ces deux modules, le générateur affûte sa capacité à créer des contenus convaincants. Les premiers usages se limitent à la génération d’images statiques, puis à des expérimentations ludiques, comme le changement d’apparence ou la création de visages inédits.
Le passage à la vidéo apporte une dimension plus complexe, puisqu’il inclut la synchronisation labiale et le mouvement du corps. Certaines plates-formes open source aident un large public à concevoir des projets de remplacement de visages. Un individu disposant d’un ordinateur suffisamment performant et d’un grand nombre de photos de la cible peut bâtir un montage capable de tromper un œil non averti. La voice cloning, autre volet de la technologie, repose souvent sur des modèles séparés, spécialisés dans la génération de signaux audio ressemblant à une voix réelle. L’association de ces deux techniques aboutit à des séquences extrêmement réalistes où la victime semble tenir des propos qu’elle n’a jamais prononcés.
La désinformation orchestrée à travers des deepfakes se développe dans différents domaines. Dans le milieu politique, plusieurs incidents rapportés démontrent la facilité à générer un discours fictif présentant un dirigeant national sous un jour négatif. Au cours d’une campagne électorale, la circulation de telles vidéos mène à la confusion parmi les électeurs, qui se retrouvent exposés à des contenus faux mais persuasifs. Les sondages d’opinion sont alors affectés. L’exemple d’une vidéo truquée montrant un ancien président américain, affirmant des déclarations offensantes envers certains groupes, a provoqué une onde de choc à l’époque de sa diffusion. Même démentie par la suite, elle laissa un sentiment durable de méfiance et d’instabilité.
Une autre série de cas concerne la sphère économique. Certains fraudeurs imitent la voix d’un dirigeant d’entreprise afin d’appeler un subordonné et de demander un virement. Cette ruse sophistiquée réside dans la capacité d’imiter l’intonation exacte et le vocabulaire habituellement utilisé par la personne usurpée. Une grande enseigne a fait l’objet de ces stratagèmes, perdant des sommes importantes. Il a été rapporté qu’une conversation téléphonique incluant le timbre vocal d’un PDG reconnu avait incité un employé à transférer des fonds de manière urgente. La prise de conscience se produisit trop tard et souligna la fragilité de certains protocoles de sécurité.
Le recours au deepfake touche également le domaine du divertissement. Des célébrités subissent des montages compromettants où leur visage se retrouve placé dans des scènes fictives, entraînant des répercussions nuisibles pour leur image. Des groupes de fans, parfois animés par de mauvaises intentions, partagent ces créations trompeuses sur les réseaux sociaux ou sur des plateformes vidéo. L’impact psychologique pour la personne ciblée est considérable, et l’ampleur de la diffusion complique la recherche d’un recours légal. Il existe aussi des individus qui participent à des défis viraux, filmés dans le but de créer des illusions humoristiques. Dans certains contextes, les conséquences demeurent légères et visent uniquement à amuser un large public, mais la frontière entre une simple farce et une manipulation nuisible est délicate à établir.
Des séquences mensongères apparaissent dans des régions où la politique est tendue. Des brigades numériques, parfois rattachées à des groupes dissidents, emploient la méthode deepfake afin de fragiliser l’image d’un adversaire. Un extrait célèbre montre un candidat local prétendant renier l’une de ses promesses phares, alors qu’il n’a jamais filmé la scène correspondante. L’originalité du montage réside dans un alignement précis des lèvres, accompagné d’une imitation vocale crédible. L’électorat s’est trouvé submergé d’informations contradictoires, rendant la vérification laborieuse. Des analystes ont par la suite disséqué l’extrait, prouvant qu’il résultait d’un assemblage artificiel. Malgré cela, certains spectateurs ont gardé en mémoire les images, sans suivre les rectificatifs publiés par la suite.
D’autres régions du globe ont découvert des versions truquées de discours officiels, où des dirigeants appellent à des actions radicales. Les services de renseignement enquêtent alors sur la provenance de ces fabrications, dans l’espoir de démanteler les réseaux responsables. Ces exemples soulignent la pertinence d’outils capables de détecter les anomalies biométriques, comme des clignements d’yeux incohérents ou une fréquence de respiration artificielle. Les laboratoires de recherche conçoivent des algorithmes d’inspection qui passent au crible chaque image, à la recherche de motifs suspects. Ces initiatives contribuent à renforcer la vigilance sur la scène politique.
Des sociétés spécialisées dans la cybersécurité développent des logiciels basés sur la vision par ordinateur, visant à découvrir des traces d’édition. L’analyse poussée du pixel permet d’identifier des artefacts souvent invisibles à l’œil nu. Les systèmes de détection s’intéressent également au mouvement des muscles faciaux, qui demeure parfois peu naturel dans un montage. Les conversations truquées basées sur la voix sont examinées par des algorithmes vérifiant la texture sonore. Lorsque la manipulation est peu sophistiquée, il arrive que la réverbération, le timbre ou la prononciation de certains phonèmes trahissent l’inauthenticité.
Des géants du numérique travaillent aussi à la création de bases de données alimentées en deepfakes, afin d’affiner la précision des systèmes de classification. Ces grands ensembles d’exemples, appelés « datasets », offrent la possibilité d’entraîner des modèles spécifiques. Par ailleurs, quelques institutions gouvernementales prennent l’initiative de financer des campagnes d’information, dont l’objectif est de familiariser la population avec les montages vidéos frauduleux. L’idée est d’inciter chacun à vérifier l’origine des extraits et à consulter des sources complémentaires. Cette prise de conscience collective répond à une exigence croissante d’authenticité dans l’espace public.
Certains gouvernements examinent de nouvelles lois sanctionnant sévèrement la production et la diffusion de deepfakes à caractère malveillant. Des débats émergent pour fixer des limites claires entre la parodie inoffensive et l’acte délibéré de tromper autrui. Les législateurs se heurtent parfois à la difficulté de concilier la défense de la liberté d’expression avec la volonté de lutter contre ces ingérences numériques. Plusieurs pays envisagent d’exiger un label spécifique indiquant qu’une vidéo est issue d’un logiciel de modification faciale.
Dans certains cas, des victimes attaquent directement en justice les responsables des montages préjudiciables. Des personnalités accusent ainsi des plateformes d’héberger des contenus qui bafouent leur droit à l’image. Les tribunaux ont déjà reconnu le tort moral engendré par certains deepfakes à caractère pornographique mettant en scène une célébrité sans son consentement. Ces différends judiciaires posent la question de la responsabilité des hébergeurs face aux contenus créés par leurs utilisateurs. Les débats se poursuivent afin de définir les obligations précises incombant aux entreprises du numérique.