MIT Technology Review→ original

Deepfakes y filtraciones de datos: cómo AI vulnera la privacidad

Una investigación de MIT Technology Review identificó dos amenazas críticas para la privacidad en la era de AI. La primera: deepfakes pornográficos que usan sin

Deepfakes y filtraciones de datos: cómo AI vulnera la privacidad
Fuente: MIT Technology Review. Collage: Hamidun News.
◐ Escuchar artículo

La investigación de MIT Technology Review revela dos amenazas serias a la privacidad causadas por la IA moderna: las mujeres descubren sus cuerpos en vídeos pornográficos falsos creados con deepfake, mientras que los grandes modelos de lenguaje revelan involuntariamente números de teléfono privados y otros datos personales.

Pornografía Deepfake como un Problema Global

Cuando Jennifer consiguió un trabajo en 2023, pasó su foto profesional por un programa de reconocimiento facial—procedimiento estándar para nuevos empleados. Varios días después llegó el shock: la mujer descubrió un vídeo en el que su rostro y cuerpo fueron utilizados para crear contenido pornográfico sin consentimiento alguno. La historia de Jennifer está lejos de ser una excepción.

Según investigaciones, más del 99% de todos los vídeos deepfake son pornografía, y la inmensa mayoría de las víctimas son mujeres y niñas. Las herramientas para crear tales vídeos se vuelven cada vez más accesibles. Hoy, aplicaciones gratuitas y scripts simples permiten que cualquier persona sin habilidades especiales cree vídeos convincentes en tan solo unas pocas horas.

El problema se está escalando: las plataformas de alojamiento de contenidos luchan contra una ola de pornografía deepfake, pero eliminar material a menudo resulta imposible una vez que se ha propagado. Para las víctimas, esto significa vergüenza permanente, trauma psicológico, y a menudo—la incapacidad de probar en tribunal que fueron realmente ellas. Además, cada repostaje del vídeo crea un nuevo trauma.

Cuando la IA Revela Información Personal

Paralelamente, la investigación descubrió una segunda amenaza: los grandes modelos de lenguaje reproducen involuntariamente datos privados. Cuando las personas introducen sus números de teléfono, direcciones de correo electrónico y otra información personal en asistentes de IA, estos datos pueden almacenarse en datos de entrenamiento y reproducirse posteriormente en respuestas a otros usuarios. Durante el entrenamiento del modelo, los sistemas absorben enormes cantidades de texto de internet—incluyendo mensajes privados, bases de datos y filtraciones de empresas. El sistema puede entonces reproducir esta información si por casualidad encuentra una consulta adecuada. Los usuarios a menudo desconocen que su información personal ha sido copiada en el propio modelo y puede ser divulgada.

  • Los números de teléfono se reproducen en un porcentaje significativo de pruebas
  • Las direcciones de correo electrónico se divulgan con aún más frecuencia
  • Los números de seguridad social, direcciones y otros datos también corren riesgo de ser divulgados
  • Típicamente, los usuarios no son informados de este riesgo al usar el servicio

Vacío Legal

Ni la pornografía deepfake ni las filtraciones de datos a través de IA tienen protección legal adecuada en la mayoría de jurisdicciones. Europa se mueve más rápidamente, gracias al GDPR y a la nueva Ley de IA, pero en EE.UU., Rusia y muchos otros países, las víctimas generalmente no tienen forma real de proteger sus derechos. Las empresas que crean modelos de IA rara vez asumen responsabilidad suficiente. No existe un estándar unificado para limpiar datos de entrenamiento de información privada, y no hay sanciones estrictas por filtraciones. Algunas empresas ni siquiera divulgan si ocurrió una filtración, ocultando el problema al público.

Lo Que Esto Significa

Estos dos problemas muestran un cuadro más amplio: la IA se está desarrollando en un vacío legal, con responsabilidad mínima de los desarrolladores ante las víctimas. Se necesitan urgentemente soluciones en tres niveles: técnico—filtrar datos de entrenamiento y protegerse contra deepfakes; legal—responsabilidad penal por crear y distribuir deepfakes pornográficos; y educativo—las personas deben conocer estos riesgos. Sin un enfoque integral, la ola de violaciones de privacidad solo crecerá. Los desarrolladores de sistemas de IA deben asumir responsabilidad por qué datos recopilan y cómo los utilizan. Y los reguladores finalmente deben comenzar a actuar.

ZK
Hamidun News
Noticias de AI sin ruido. Selección editorial diaria de más de 400 fuentes. Producto de Zhemal Khamidun, Head of AI en Alpina Digital.
¿Qué te parece?
Cargando comentarios…