MIT Technology Review→ original

Le porno deepfake comme arme de harcèlement : comment AI crée une nouvelle forme de violence

Une femme a découvert du porno synthétique avec son visage simplement en vérifiant si une photo professionnelle pouvait être retrouvée via facial recognition. L

Le porno deepfake comme arme de harcèlement : comment AI crée une nouvelle forme de violence
Source : MIT Technology Review. Collage: Hamidun News.
◐ Écouter l'article

Lorsque Jennifer a commencé à travailler dans une ONG en 2023, elle a passé sa photographie professionnelle par reconnaissance faciale—elle voulait simplement vérifier sa visibilité en ligne. Le système a retourné un résultat qui l'a choquée : des vidéos pornographiques deepfake avec son visage, créées à partir de vidéos qu'elle avait filmées dix ans auparavant. L'histoire de Jennifer n'est pas une exception, mais un avertissement sur l'ampleur de la crise que l'IA a créée.

Contenu Synthétique en Minutes

Les outils pour créer de la pornographie deepfake sont disponibles depuis longtemps. Vous n'avez pas besoin d'être spécialiste : il suffit de sélectionner du code open source, de télécharger quelques images du visage cible et—voilà. Le processus prend des minutes. Les outils les plus populaires sont distribués via GitHub, Reddit et TikTok. Chaque mise à jour rend le processus plus simple et la qualité plus élevée. Le principal moteur est la demande : la demande pour ce type de contenu semble infinie, en particulier sur les plateformes de niche et sur le dark web.

Trauma et Ampleur

L'effet sur la victime est immédiat et traumatisant. La pornographie synthétique se propage comme un feu de forêt : les amis la découvrent, les collègues la voient, les employeurs peuvent réagir. Dans certains cas, le contenu est utilisé pour du chantage. Les femmes y font face beaucoup plus souvent—90 % des victimes de pornographie deepfake sont des femmes.

  • Trauma psychologique et trouble de stress post-traumatique chez les victimes
  • Perte d'emploi et rupture de relations en raison des "fuites"
  • Utilisation du contenu pour le chantage et l'extorsion
  • Dommage à la réputation qui ne peut pas être complètement annulé
  • Perte de contrôle sur sa propre image

Les plateformes suppriment le contenu lorsque des plaintes sont déposées, mais c'est lent. À ce moment-là, la vidéo a déjà été copiée des milliers de fois, et la suppression complète est une illusion.

Tentatives de Défense

Plusieurs approches sont déjà en cours. Certains pays (Corée du Sud, certains États américains, Royaume-Uni) ont criminalisé la pornographie deepfake. Les plateformes et les chercheurs développent des détecteurs de contenu synthétique, mais ils traînent derrière la qualité des modèles de 2026. Des campagnes de sensibilisation et d'aide aux victimes sont en cours. Cependant, la loi traîne derrière la technologie, et les détecteurs deepfake restent non viables.

Ce Que Cela Signifie

La pornographie deepfake n'est pas simplement une catégorie de crime—c'est une nouvelle forme d'abus numérique. La technologie créée pour la créativité est devenue un outil de violence à l'échelle industrielle. Pour la société, cela signifie que la vie privée de l'image d'une personne a de facto disparu. Pour les plateformes, il existe un besoin urgent de modération. Pour les législateurs, la régulation est nécessaire.

ZK
Hamidun News
Actualités IA sans bruit. Sélection éditoriale quotidienne de plus de 400 sources. Produit de Zhemal Khamidun, Head of AI chez Alpina Digital.
Qu'en pensez-vous ?
Chargement des commentaires…