Deepfakes e vazamentos de dados: como a AI viola a privacidade
Uma investigação da MIT Technology Review identificou duas ameaças críticas à privacidade na era da AI. A primeira: deepfakes pornográficos que usam, sem consen

Pesquisa do MIT Technology Review revela duas ameaças sérias à privacidade causadas pela IA moderna: mulheres descobrem seus corpos em vídeos pornográficos falsos criados com deepfake, enquanto grandes modelos de linguagem revelam involuntariamente números de telefone privados e outros dados pessoais.
Pornô Deepfake como um Problema Global
Quando Jennifer conseguiu um emprego em 2023, ela passou sua foto profissional por um programa de reconhecimento facial—procedimento padrão para novos funcionários. Alguns dias depois veio o choque: a mulher descobriu um vídeo em que seu rosto e corpo foram usados para criar conteúdo pornográfico sem nenhum consentimento. A história de Jennifer está longe de ser uma exceção.
De acordo com pesquisas, mais de 99% de todos os vídeos deepfake são pornografia, e a grande maioria das vítimas são mulheres e meninas. As ferramentas para criar tais vídeos estão se tornando cada vez mais acessíveis. Hoje, aplicativos gratuitos e scripts simples permitem que qualquer pessoa sem habilidades especiais crie vídeos convincentes em apenas algumas horas.
O problema está aumentando em escala: plataformas de hospedagem de conteúdo lutam contra uma onda de pornô deepfake, mas remover material é muitas vezes impossível depois que ele se espalha. Para as vítimas, isso significa vergonha permanente, trauma psicológico, e frequentemente—a impossibilidade de provar em tribunal que era realmente elas. Além disso, cada republicação do vídeo cria novo trauma.
Quando a IA Revela Informações Pessoais
Em paralelo, a pesquisa descobriu uma segunda ameaça: grandes modelos de linguagem reproduzem involuntariamente dados privados. Quando as pessoas inserem seus números de telefone, endereços de email e outras informações pessoais em assistentes de IA, esses dados podem ser armazenados em dados de treinamento e posteriormente reproduzidos em respostas para outros usuários. Durante o treinamento do modelo, os sistemas absorvem enormes quantidades de texto da internet—incluindo mensagens privadas, bancos de dados e vazamentos de empresas. O sistema pode então reproduzir essas informações se encontrar casualmente uma consulta adequada. Os usuários geralmente não sabem que suas informações pessoais foram copiadas no próprio modelo e podem ser divulgadas.
- Números de telefone são reproduzidos em um percentual significativo de testes
- Endereços de email são divulgados com ainda mais frequência
- Números de segurança social, endereços e outros dados também correm risco de serem divulgados
- Os usuários normalmente não são informados sobre esse risco ao usar o serviço
Vácuo Legal
Nem o pornô deepfake nem vazamentos de dados através de IA têm proteção legal adequada na maioria das jurisdições. A Europa está se movendo mais rapidamente, graças ao GDPR e à nova Lei de IA, mas nos EUA, Rússia e muitos outros países, as vítimas geralmente não têm forma real de proteger seus direitos. As empresas que criam modelos de IA raramente assumem responsabilidade suficiente. Não há padrão unificado para limpar dados de treinamento de informações privadas, e não há penalidades rigorosas por vazamentos. Algumas empresas nem mesmo divulgam se ocorreu um vazamento, escondendo o problema do público.
O Que Isso Significa
Esses dois problemas mostram um quadro mais amplo: a IA está se desenvolvendo em um vácuo legal, com responsabilidade mínima dos desenvolvedores perante as vítimas. Soluções são urgentemente necessárias em três níveis: técnico—filtrar dados de treinamento e proteger contra deepfakes; legal—responsabilidade criminal pela criação e distribuição de deepfakes pornográficos; e educacional—as pessoas devem conhecer esses riscos. Sem uma abordagem abrangente, a onda de violações de privacidade apenas crescerá. Os desenvolvedores de sistemas de IA devem assumir responsabilidade pelos dados que coletam e como os usam. E os reguladores devem finalmente começar a agir.