Deepfakes et arnaques sentimentales : la nouvelle menace IA
Deepfake vidéo, voix synthétique, photos générées par IA. Comment détecter les faux et pourquoi l'IA rend les arnaques plus difficiles à repérer.
Qu'est-ce qu'un deepfake dans le contexte des arnaques sentimentales
Un deepfake est un contenu audiovisuel généré ou modifié par intelligence artificielle pour reproduire l'apparence ou la voix d'une personne réelle. Dans le contexte des arnaques sentimentales, cette technologie permet aux escrocs de franchir la barrière qui les arrêtait jusqu'ici : l'appel vidéo. Là où un brouteur classique refusait systématiquement la visioconférence parce que son visage ne correspondait pas aux photos volées, un escroc équipé de deepfake peut désormais apparaître en vidéo avec le visage de quelqu'un d'autre.
L'affaire du faux Brad Pitt début 2024 a médiatisé le phénomène : une femme française a versé 830 000 euros à un escroc qui se faisait passer pour l'acteur américain en utilisant des photos et vidéos générées par IA. Mais au-delà des cas spectaculaires impliquant des célébrités, les deepfakes sont de plus en plus utilisés dans des arnaques sentimentales ordinaires ciblant des personnes lambda.
Deepfake vidéo : les faux appels en visioconférence
Les faux appels vidéo en temps réel représentent la menace la plus directe pour les victimes d'arnaques sentimentales. Des applications comme DeepFaceLive, FaceFusion ou des logiciels similaires permettent de remplacer son propre visage par celui d'une autre personne pendant un appel vidéo en direct sur Zoom, WhatsApp, Skype ou tout autre plateforme.
Comment ça fonctionne techniquement
L'escroc utilise une webcam physique pointée sur son propre visage. Un logiciel de face swap intercepte le flux vidéo en temps réel, détecte le visage de l'escroc, et le remplace par le visage cible (celui des photos volées) avant de transmettre le flux modifié à l'application d'appel vidéo. Le remplacement s'effectue image par image, environ 25 à 30 fois par seconde.
La qualité du résultat dépend de plusieurs facteurs : la puissance de l'ordinateur utilisé (un GPU performant est nécessaire pour un rendu fluide), le nombre de photos d'entraînement du visage cible, les conditions d'éclairage, et l'angle de la caméra. En conditions favorables — bon éclairage, visage de face, résolution limitée — le résultat peut être convaincant pour un observateur non averti.
Le cas du faux Brad Pitt
L'arnaque au faux Brad Pitt, révélée en janvier 2024, illustre le potentiel destructeur des deepfakes dans les arnaques sentimentales. L'escroc a maintenu l'illusion pendant plus d'un an en envoyant des photos et vidéos générées par IA montrant le visage de l'acteur dans des situations du quotidien. La victime, une femme de 53 ans, a vendu des biens et contracté des emprunts pour envoyer un total de 830 000 euros, convaincue d'être en couple avec la star hollywoodienne.
Deepfake audio : la voix synthétique
Le clonage vocal par IA est devenu remarquablement accessible. Des services comme ElevenLabs, Resemble.AI ou VALL-E de Microsoft peuvent reproduire une voix à partir de quelques secondes d'enregistrement audio. Dans le contexte des arnaques sentimentales, cette technologie est utilisée de deux manières principales.
Appels téléphoniques avec voix clonée
L'escroc récupère un échantillon vocal de la personne dont il usurpe l'identité — une vidéo YouTube, un podcast, un message vocal public — et utilise un logiciel de synthèse vocale pour parler avec cette voix lors d'appels téléphoniques. La qualité des voix synthétiques actuelles est suffisante pour tromper la plupart des interlocuteurs, surtout par téléphone où la bande passante audio est limitée.
Messages vocaux générés
Plus simple encore : l'escroc génère des messages vocaux à l'avance avec la voix clonée et les envoie sur WhatsApp ou Telegram. La victime reçoit un message vocal qui semble provenir de la personne sur les photos, renforçant considérablement l'illusion. Contrairement aux appels en direct, les messages vocaux pré-générés peuvent être retravaillés et peaufinés avant envoi.
Photos de profil générées par IA
Jusqu'en 2022, les escrocs volaient des photos sur les réseaux sociaux de vraies personnes. Cette méthode reste dominante mais présente un risque : la recherche d'image inversée permet de retrouver la source originale. Les photos générées par IA éliminent ce risque. Un visage créé par un générateur d'images n'existe nulle part ailleurs sur internet, rendant la recherche inversée inutile.
Les technologies utilisées
Plusieurs technologies permettent de générer des visages photoréalistes :
- StyleGAN (et ses successeurs) — Développé par NVIDIA, ce réseau génère des visages extrêmement réalistes. Le site ThisPersonDoesNotExist.com en est la démonstration la plus connue.
- Stable Diffusion — Modèle open source capable de générer des portraits à partir de descriptions textuelles (« femme blonde, 30 ans, souriante, photo naturelle »).
- Midjourney — Génère des images de haute qualité esthétique, utilisées par les escrocs pour créer des photos de profil attrayantes.
Comment repérer une photo générée par IA
Malgré les progrès rapides, les images générées par IA présentent encore des artefacts détectables par un examen attentif :
- Asymétrie faciale inhabituelle — Les visages réels ne sont jamais parfaitement symétriques, mais les artefacts IA produisent des asymétries spécifiques : une oreille différente de l'autre, un contour de mâchoire irrégulier.
- Arrière-plans flous ou incohérents — Le fond de l'image présente souvent des distorsions : texte illisible, objets déformés, lignes droites qui ondulent.
- Boucles d'oreilles différentes — Un classique des générateurs : les deux boucles d'oreilles ne correspondent pas ou l'une est déformée.
- Doigts mal formés — Les mains générées par IA présentent fréquemment des anomalies : nombre incorrect de doigts, articulations impossibles, doigts fusionnés.
- Cheveux et textures — La limite entre les cheveux et le fond peut présenter un « halo » ou des mèches qui se dissolvent de manière non naturelle.
- Dents trop parfaites — Les générateurs tendent à produire des dentitions uniformément blanches et alignées qui semblent artificielles.
Comment détecter un deepfake lors d'un appel vidéo
La détection des deepfakes en temps réel nécessite de savoir quoi observer et de connaître les limites actuelles de la technologie.
Artefacts visuels à surveiller
- Contour du visage — Le bord entre le visage superposé et l'arrière-plan (cou, cheveux, oreilles) peut présenter un léger scintillement, un flou ou un décalage.
- Mouvements non naturels — Les expressions faciales peuvent paraître légèrement mécaniques ou décalées par rapport à la parole. Les micro-expressions authentiques (froncement de sourcils spontané, plissement des yeux en riant) sont difficiles à reproduire.
- Clignements des yeux — Certains deepfakes présentent des clignements irréguliers : trop fréquents, trop lents, ou absents pendant de longues périodes.
- Éclairage incohérent — Les ombres sur le visage deepfake peuvent ne pas correspondre à l'éclairage de l'environnement visible autour.
Tests actifs pendant l'appel
Plutôt que d'observer passivement, vous pouvez activement tester l'authenticité de la vidéo :
- Demandez de tourner la tête de profil — Les deepfakes actuels gèrent moins bien les angles extrêmes. Un profil complet (90 degrés) provoque souvent des artefacts visibles.
- Demandez de mettre la main devant le visage — Les logiciels de face swap perdent le tracking quand le visage est partiellement occulté. La main passant devant le visage peut provoquer des glitchs.
- Demandez de toucher le nez ou l'oreille — Le contact entre la main et le visage révèle les limites du face swap.
- Changez de sujet brusquement — Observez si les expressions faciales réagissent naturellement à une surprise ou une blague inattendue.
Pourquoi l'IA rend les arnaques plus difficiles à repérer
L'intelligence artificielle a modifié l'équilibre entre escrocs et victimes de plusieurs manières fondamentales. La barrière de la langue a pratiquement disparu grâce aux traducteurs IA comme ChatGPT, qui produisent un français naturel et sans faute. Les photos générées éliminent le risque de détection par recherche inversée. Les deepfakes vidéo neutralisent le conseil « insistez pour un appel vidéo » qui était jusqu'alors la meilleure protection.
Les chatbots IA permettent aussi d'industrialiser l'arnaque. Un seul escroc peut désormais gérer des centaines de conversations simultanées en déléguant la rédaction des messages à un modèle de langage, n'intervenant personnellement que pour les moments critiques (demande d'argent, gestion des objections).
Ce que font les plateformes
Les grandes plateformes ont commencé à intégrer des outils de détection IA pour contrer cette menace. Meta (Facebook, Instagram, WhatsApp) a déployé en 2024 un système d'alerte qui notifie les utilisateurs lorsqu'un contenu est suspecté d'être généré par IA. Tinder et Bumble ont introduit la vérification par selfie vidéo : les utilisateurs doivent reproduire une série de poses en vidéo pour prouver que leur visage correspond à leurs photos.
Des outils de détection spécialisés sont également disponibles : Microsoft Video Authenticator analyse les vidéos pour détecter les manipulations invisibles à l'œil nu. Sensity.ai propose une API de détection de deepfakes utilisée par des organisations et des entreprises. Ces outils ne sont pas infaillibles, mais ils ajoutent une couche de protection supplémentaire.
Se protéger contre les deepfakes sentimentaux
Face à l'évolution rapide de la technologie, la protection repose sur un ensemble de pratiques plutôt que sur une mesure unique.
- Appels vidéo spontanés — Proposez des appels non programmés. L'escroc a besoin de temps pour préparer son dispositif deepfake. Un appel lancé sans préavis réduit considérablement ses chances d'utiliser cette technologie.
- Demander des gestes spécifiques — Pendant l'appel, demandez des actions que le deepfake gère mal : passer la main devant le visage, montrer un objet spécifique, écrire un mot sur un papier et le montrer à la caméra.
- Ne jamais se fier uniquement à la vidéo — Même si l'appel vidéo semble authentique, croisez cette information avec les autres vérifications : recherche d'image inversée, cohérence du profil, vérification des numéros de téléphone.
- Méfiance envers les vidéos pré-enregistrées — Une vidéo envoyée par message (pas un appel en direct) ne prouve rien. Les vidéos deepfake pré-générées sont nettement plus convaincantes que le temps réel car elles peuvent être retravaillées.
- Rencontre physique — La protection ultime reste la rencontre en personne. Le deepfake ne fonctionne pas dans le monde réel.
Sources
- Europol — Facing Reality: Law Enforcement and the Challenge of Deepfakes, 2024
- MIT Technology Review — The State of Deepfake Detection, 2024
- Meta — AI-Generated Content Labeling Policy, 2024
- Microsoft — Video Authenticator Documentation, 2023
- Sensity.ai — Annual Deepfake Threat Report, 2024
- Le Parisien — Arnaque au faux Brad Pitt : une Française escroquée de 830 000 euros, 2024
- Cybermalveillance.gouv.fr — Alerte sur les deepfakes dans les arnaques sentimentales, 2024
Besoin d'aide professionnelle ?
Nos experts analysent les profils suspects et vous accompagnent dans votre situation.Articles liés
Arnaques sentimentales en France : chiffres et statistiques 2025-2026
3 400 déclarations validées en 2024, hausse de 91% des demandes d'assistance Cybermalveillance. Les chiffres clés des arnaques sentimentales en France et dans le monde.
Comment reconnaître un brouteur en 2026 : le guide complet
Les 12 signes d'alerte pour détecter un brouteur : du love bombing au refus de visio, en passant par les professions stéréotypées et les numéros on/off.
Que faire si vous êtes victime d'une arnaque sentimentale en France
Guide étape par étape : couper le contact, rassembler les preuves, contacter sa banque, porter plainte via THESEE, et se faire accompagner. Avec les articles du Code pénal applicables.
Vous cherchez une relation sérieuse avec une femme slave ?
Passez par une agence vérifiée, basée à Moscou, avec un accompagnement humain sur place.
Découvrir valentin.love