Estrellas de Hollywood lanzaron un estándar para controlar el uso de rostros y obras creativas por AI
Las estrellas de Hollywood George Clooney, Tom Hanks y Meryl Streep respaldaron un nuevo estándar de licencias, el Human Consent Standard. Permite a las persona

Las estrellas de Hollywood y directores están apoyando un nuevo estándar de licenciamiento para sistemas de inteligencia artificial. El Human Consent Standard permite a las personas establecer reglas sobre cómo se utilizan sus rostros, voces, personajes y obras creativas en sistemas de IA.
Cómo Funciona el Human Consent Standard
El Human Consent Standard ofrece a las personas tres opciones para controlar su contenido e imagen. Es simple y directo: puede permitir que la IA tenga acceso total a su material, establecer condiciones especiales de uso (por ejemplo, requerir un acuerdo de licencia y pagos), o prohibir completamente el acceso sin excepciones. Cada opción funciona como una señal para sistemas de IA — basta con agregar un archivo especial a su sitio web o perfil, y los sistemas conocerán sus preferencias.
Es similar a cómo robots.txt indica a los motores de búsqueda qué páginas indexar. Ahora es una señal específicamente para IA generativa y modelos que se entrenan con contenido.
Idealmente, las grandes empresas desarrolladoras de IA verificarán este archivo antes de entrenar sus modelos.
- Permiso total — la IA puede utilizar contenido libremente sin restricciones
- Acceso condicional — se requiere licencia y pago para uso comercial
- Prohibición total — la IA no puede utilizar contenido para ningún propósito
Quién Lanzó el Estándar
El Human Consent Standard fue desarrollado por RSL Media — una organización sin fines de lucro que creó el Really Simple Licensing (RSL) Standard básico el año pasado. Detrás de él están no solo directores y actores aleatorios — son estrellas de alcance mundial: George Clooney, Tom Hanks y Meryl Streep. Su apoyo es una señal fuerte del establishment de Hollywood sobre la necesidad de controlar cómo se utilizan las obras creativas en la era de la IA.
El RSL Standard original se lanzó como una forma para que sitios web y autores señalen a sistemas de IA cómo desean que se utilice su contenido. Ahora el estándar se está expandiendo y alcanzando un nivel completamente nuevo — el nivel de proteger la propia imagen humana y su creatividad. Esto es especialmente importante para actores que pueden ser sintetizados en videos sin su consentimiento, y para músicos cuyos voces pueden ser clonadas.
Por Qué Es Relevante Ahora
Sin tal estándar, las personas creativas permanecen indefensas contra empresas que entrenan IA en todo — sin preguntar, sin pago, sin atribución. Esto ya ha afectado a muchos actores y músicos cuyos rostros y voces se utilizan en videos sintetizados. La acción legal es cara y lenta, y a menudo los resultados llegan demasiado tarde, cuando el daño ya se ha hecho.
El Human Consent Standard ofrece un camino diferente: simplemente establezca un estándar de licenciamiento, y todo funciona automáticamente. Las plataformas y los desarrolladores de sistemas de IA verán su elección y la respetarán — si desean mantenerse en buenas términos con la industria y evitar demandas. Si las grandes plataformas y sistemas de IA generativa comienzan a respetar este estándar, podría convertirse en un estándar de facto para toda la industria.
Esto reduciría los conflictos entre creadores de contenido y empresas que desarrollan IA. Por ahora, no está claro si empresas como OpenAI o Meta seguirán voluntariamente tal estándar.
Qué Significa Esto
El nuevo estándar es un intento de establecer las reglas del juego a nivel tecnológico, sin participación gubernamental. Muestra que la industria está lista para buscar un compromiso y establecer sus propias reglas en lugar de esperar decisiones judiciales y regulación. Para autores, actores y músicos, esta es una herramienta para proteger sus derechos. Para empresas de IA — una forma de estar del lado correcto de la historia.