Deepfakes et fuites de données : comment AI porte atteinte à la vie privée
Une enquête de MIT Technology Review a identifié deux menaces critiques pour la vie privée à l'ère de AI. Premièrement : des deepfakes pornographiques utilisent

La recherche du MIT Technology Review révèle deux menaces graves pour la vie privée posées par l'IA moderne : les femmes découvrent leurs corps dans des vidéos pornographiques contrefaites créées avec la technologie deepfake, tandis que les grands modèles de langage divulguent involontairement des numéros de téléphone privés et d'autres données personnelles.
La Pornographie Deepfake comme Problème Mondial
Lorsque Jennifer a obtenu un emploi en 2023, elle a passé sa photo professionnelle par un programme de reconnaissance faciale—procédure standard pour les nouveaux employés. Quelques jours plus tard, c'est le choc : la femme a découvert une vidéo dans laquelle son visage et son corps ont été utilisés pour créer du contenu pornographique sans aucun consentement. L'histoire de Jennifer est loin d'être unique.
Selon les recherches, plus de 99% de toutes les vidéos deepfake sont de la pornographie, et la grande majorité des victimes sont des femmes et des filles. Les outils de création de telles vidéos deviennent de plus en plus accessibles. Aujourd'hui, les applications gratuites et les scripts simples permettent à n'importe qui sans compétences particulières de créer des vidéos convaincantes en seulement quelques heures.
Le problème s'aggrave : les plateformes d'hébergement de contenu font face à une vague de pornographie deepfake, mais supprimer le matériel s'avère souvent impossible une fois qu'il s'est propagé. Pour les victimes, cela signifie une honte permanente, un trauma psychologique, et souvent—l'impossibilité de prouver devant le tribunal que c'était réellement eux. De plus, chaque republication de la vidéo crée un nouveau trauma.
Quand l'IA Révèle des Informations Personnelles
Parallèlement, la recherche a découvert une deuxième menace : les grands modèles de langage reproduisent involontairement des données privées. Lorsque les gens saisissent leurs numéros de téléphone, adresses e-mail et autres informations personnelles dans des assistants IA, ces données peuvent être stockées dans les données d'entraînement et reproduites ultérieurement dans les réponses à d'autres utilisateurs. Lors de l'entraînement du modèle, les systèmes absorbent d'énormes quantités de texte provenant d'Internet—y compris des messages privés, des bases de données et des fuites d'entreprises. Le système peut ensuite reproduire ces informations s'il rencontre par hasard une requête appropriée. Les utilisateurs ne savent souvent pas que leurs informations personnelles ont été copiées dans le modèle lui-même et peuvent être divulguées.
- Les numéros de téléphone sont reproduits dans un pourcentage significatif des tests
- Les adresses e-mail sont divulguées encore plus fréquemment
- Les numéros de sécurité sociale, les adresses et autres données risquent également d'être divulgués
- Les utilisateurs ne sont généralement pas informés de ce risque lors de l'utilisation du service
Vide Juridique
Ni la pornographie deepfake ni les fuites de données via l'IA n'ont une protection juridique adéquate dans la plupart des juridictions. L'Europe avance plus vite, grâce au RGPD et à la nouvelle Loi sur l'IA, mais aux États-Unis, en Russie et dans de nombreux autres pays, les victimes n'ont généralement aucun moyen réel de protéger leurs droits. Les entreprises qui créent des modèles d'IA assument rarement une responsabilité suffisante. Il n'existe pas de norme unifiée pour nettoyer les données d'entraînement des informations privées, et il n'y a pas de pénalités strictes pour les fuites. Certaines entreprises ne divulguent même pas si une fuite s'est produite, cachant le problème au public.
Ce Que Cela Signifie
Ces deux problèmes montrent un tableau plus large : l'IA se développe dans un vide juridique, avec une responsabilité minimale des développeurs envers les victimes. Des solutions sont urgemment nécessaires sur trois niveaux : technique—filtrer les données d'entraînement et se protéger contre les deepfakes ; juridique—responsabilité pénale pour la création et la distribution de deepfakes pornographiques ; et éducatif—les gens doivent connaître ces risques. Sans une approche globale, la vague de violations de la vie privée ne fera que s'aggraver. Les développeurs de systèmes d'IA doivent assumer la responsabilité des données qu'ils collectent et de la manière dont ils les utilisent. Et les régulateurs doivent enfin commencer à agir.