En 2025, un chef d’entreprise hongkongais a ordonné un virement de 25 millions de dollars après une visioconférence avec ce qui semblait être son directeur financier et plusieurs collègues. Problème : personne dans l’appel vidéo n’était réel. C’était des deepfakes générés en temps réel. L’escroquerie reste l’une des plus importantes jamais commise via cette technologie.
Ce n’est plus de la science-fiction. Les deepfakes — ces contenus audiovisuels falsifiés par l’intelligence artificielle — sont devenus accessibles à n’importe qui disposant d’un ordinateur ordinaire. Et leurs usages malveillants explosent.
Deepfake : définition
Un deepfake est un contenu audiovisuel synthétique — vidéo, image ou audio — dans lequel une personne réelle est représentée en train de dire ou de faire quelque chose qu’elle n’a jamais dit ni fait. Le terme est une contraction de deep learning (apprentissage profond) et fake (faux).
La technologie repose sur des réseaux de neurones adversariaux (GAN — Generative Adversarial Networks) : deux algorithmes travaillent en opposition, l’un générant des contenus, l’autre évaluant leur réalisme. Au fil des itérations, le résultat devient indiscernable du réel à l’œil nu.
Les deepfakes ne se limitent pas à la vidéo :
- Vidéo deepfake : remplacement du visage d’une personne par celui d’une autre dans une séquence vidéo
- Voice cloning : reproduction fidèle d’une voix à partir de quelques secondes d’audio
- Image deepfake : génération d’une photo réaliste d’une personne dans un contexte fictif
- Real-time deepfake : falsification en direct lors d’un appel vidéo
Comment les deepfakes sont créés
Face swapping — la technique historique
La méthode originale consiste à entraîner un modèle d’IA sur des centaines d’images ou de secondes de vidéo du visage cible. Le modèle apprend à mapper ce visage sur un autre, en adaptant l’éclairage, les expressions et les mouvements.
Les outils grand public comme FaceSwap ou DeepFaceLab permettent de produire des résultats convaincants en quelques heures sur un ordinateur gaming standard. Les services commerciaux comme Runway ou Kling AI font de même en quelques minutes, sans aucune compétence technique.
Voice cloning — clonage vocal
Des outils comme ElevenLabs, Resemble AI ou même des applications mobiles gratuites permettent de reproduire fidèlement une voix à partir de 3 à 30 secondes d’enregistrement. La voix clonée peut ensuite lire n’importe quel texte avec les intonations, le rythme et les particularités vocales de la personne originale.
Les deepfakes audio sont aujourd’hui plus répandus que les vidéos, car ils sont plus simples à produire et plus difficiles à détecter par téléphone.
Lip sync — synchronisation labiale
Une technique plus récente consiste à modifier uniquement les lèvres d’une vidéo pour synchroniser des paroles différentes. Résultat : une vidéo d’une personnalité politique disant exactement ce que le créateur souhaite, à partir d’une vraie interview.
Les dangers des deepfakes en 2026
Désinformation et manipulation politique
C’est le danger le plus documenté. Des deepfakes de politiciens ont déjà circulé massivement : Volodymyr Zelensky appelant ses soldats à se rendre (démenti en quelques heures mais visionné des millions de fois), des dirigeants mondiaux tenant des propos qu’ils n’ont jamais tenus.
La vitesse de diffusion sur les réseaux sociaux dépasse systématiquement celle du démenti. Le temps que le faux soit identifié et démenti, des millions de personnes l’ont déjà vu — et beaucoup l’ont cru.
Arnaque et fraude financière
Le cas hongkongais illustre l’ampleur du risque. Les deepfakes sont désormais utilisés pour :
- Fraude au président : se faire passer pour un dirigeant en visioconférence pour obtenir un virement
- Usurpation d’identité : passer des vérifications KYC (Know Your Customer) en banque ou sur des plateformes d’investissement
- Extorsion : créer de faux contenus compromettants pour faire chanter les victimes
En France, la DGSI (Direction générale de la sécurité intérieure) a recensé plusieurs cas d’espionnage industriel utilisant des deepfakes pour infiltrer des entreprises.
Harcèlement et deepfake pornographique
C’est l’usage malveillant le plus répandu en volume. Des études estiment que plus de 90 % des deepfakes en ligne sont des contenus à caractère sexuel non consentis, visant massivement des femmes — personnalités publiques comme personnes ordinaires.
Les victimes rapportent des conséquences dévastatrices : atteinte à la réputation, harcèlement, perte d’emploi, troubles psychologiques sévères. La création et la diffusion de tels contenus est désormais pénalement sanctionnée en France.
Manipulation des preuves
Un deepfake crédible peut être présenté comme preuve dans un litige, une procédure judiciaire ou une enquête journalistique. La simple existence de la technologie crée un “dividende du menteur” : n’importe quelle vidéo authentique peut désormais être remise en question en invoquant le deepfake.
Comment détecter un deepfake
Les indices visuels à chercher
Les deepfakes perfectibles laissent encore des traces, si l’on sait où regarder :
Sur le visage :
- Bordures floues ou irrégulières autour du visage, des cheveux ou des oreilles
- Clignements d’yeux anormaux (trop fréquents, trop rares, asynchrones avec la parole)
- Absence de rides ou de marques distinctives habituelles
- Teint de peau qui semble “plastique” ou trop lisse
- Asymétrie faciale excessive par rapport aux photos connues de la personne
Sur le contexte :
- Lèvres dont le mouvement ne correspond pas parfaitement aux paroles
- Éclairage incohérent entre le visage et l’arrière-plan
- Accessoires (lunettes, boucles d’oreilles) qui scintillent ou disparaissent
- Arrière-plan qui semble figé ou légèrement déformé
Sur l’audio :
- Prosodie plate ou robotique
- Articulation parfaite sans hésitations, “euh”, ni reprises
- Absence de bruit de fond ambiant cohérent
Les outils de détection automatique
Plusieurs outils spécialisés analysent les vidéos à la recherche d’artefacts laissés par les algorithmes de génération :
- Sensity AI : plateforme professionnelle d’analyse de deepfakes, utilisée par des médias et organisations gouvernementales
- Microsoft Video Authenticator : détecte les manipulations dans les vidéos et images
- FakeCatcher d’Intel : analyse les variations subtiles du flux sanguin dans les pixels du visage (imperceptibles à l’œil nu mais absentes dans les visages synthétiques)
- Hive Moderation : API utilisée par des plateformes pour filtrer les contenus générés par IA
Ces outils ne sont pas infaillibles — les modèles de génération s’améliorent constamment, et les détecteurs ont toujours un temps de retard. Mais ils permettent de traiter de gros volumes et d’isoler les cas suspects pour examen humain.
La vérification contextuelle
Face à une vidéo suspecte, les journalistes et fact-checkers recommandent de :
- Rechercher la source primaire : où a été publiée cette vidéo pour la première fois ?
- Chercher d’autres angles : une vraie vidéo d’événement public laisse souvent d’autres traces
- Analyser les métadonnées : date de création, appareil, localisation (si non effacées)
- Croiser avec d’autres sources : si un politicien a vraiment tenu ces propos, des journalistes présents l’auraient rapporté
- Consulter les fact-checkers : AFP Factuel, CheckNews (Libération), Les Décodeurs (Le Monde)
La réponse légale en France
La France a renforcé son arsenal juridique face aux deepfakes :
- Loi SREN (2024) : oblige les plateformes à labelliser les contenus générés par IA et à retirer rapidement les deepfakes signalés
- Article 226-8 du Code pénal : le montage frauduleux d’images ou de vidéos est puni d’un an d’emprisonnement et 15 000 € d’amende — une peine aggravée si diffusé publiquement
- Loi Sécurité du numérique (2024) : les deepfakes sexuels non consentis constituent une infraction spécifique passible de 2 ans de prison et 60 000 € d’amende
La difficulté reste l’identification des auteurs, souvent anonymes et localisés hors de France.
Les deepfakes illustrent une tension fondamentale de notre époque : les mêmes technologies qui permettent de créer des films d’animation époustouflants, de restaurer des photos de famille ou de faciliter l’accessibilité pour les personnes avec des handicaps de communication peuvent être détournées avec des conséquences graves. La vigilance n’a jamais été aussi nécessaire face à ce que nous voyons et entendons.