Wired→ original

«Dreaming» de Anthropic: por qué las empresas de AI deben dejar de antropomorfizar las funciones

Anthropic llamó «dreaming» a una nueva función para agentes de AI — la capacidad de ordenar contexto y “recuerdos”. Pero un periodista de Wired critica la tende

«Dreaming» de Anthropic: por qué las empresas de AI deben dejar de antropomorfizar las funciones
Fuente: Wired. Коллаж: Hamidun News.
◐ Escuchar artículo

En la conferencia de desarrolladores, Anthropic presentó una nueva función para agentes de IA—ahora pueden "soñar" y procesar sus "recuerdos". Pero un periodista advierte: es hora de que las empresas dejen de presentar procesos de máquina como capacidades humanas.

Qué pasó en Anthropic

En una reunión de desarrolladores, Anthropic anunció una función que llamó "soñar" para agentes de IA. En la práctica, esto significa: un agente puede reprocesar su contexto y "recuerdos" (en realidad datos en memoria) para un mejor análisis de la tarea. Suena interesante. Pero el nombre es puro marketing. Realidad: el algoritmo reindexa datos disponibles. Esto no es sueño, no es un sueño, no es el subconsciente. Es computación. Pero "soñar" suena mejor que "reindexación contextual", así que la empresa eligió esa palabra.

Una ola de antropomorfismo

Este no es el primer caso. Hace unos meses, OpenAI anunció "pensamiento extendido"—en realidad solo un proceso computacional más largo con pasos intermedios. Antes de eso, las empresas de redes neuronales hablaban de que la IA tenía "memoria", "conciencia" y "autoconciencia". Todos estos nombres son intentos de explicar procesos de máquina a través de metáforas humanas. El problema no es con las metáforas en sí. El problema es que las empresas intencionalmente utilizan el antropomorfismo como una herramienta de marketing y relaciones públicas.

Por qué esto es peligroso

Cuando una empresa llama a una función "soñar" o "memoria", los usuarios subconscientemente comienzan a pensar que la IA duerme y sueña como un humano. O que una red neuronal tiene conciencia. Ninguno de los dos sucede. Estos nombres crean problemas:

  • Engañan a los usuarios sobre las capacidades y limitaciones de la IA
  • Exageran las posibilidades tecnológicas a corto plazo
  • Hacen que los procesos complejos parezcan simples y humanos
  • Complican conversaciones honestas sobre cómo funciona realmente la IA
  • Crean falsas expectativas de productos

El periodista da un ejemplo: si llamas a una función "memoria", las personas pensarán que la IA las recuerda entre sesiones, aprende sus detalles personales, puede desarrollar relaciones a largo plazo. En realidad, es solo recuperación rápida de contexto de una base de datos, que se reinicia con cada nueva solicitud.

Por qué las empresas hacen esto

Los nombres bonitos significan redes sociales, clics, éxito mediático. "La IA ganó la capacidad de soñar" suena mejor en las noticias que "el algoritmo reindexa el contexto para optimizar el procesamiento de solicitudes". Los inversores y periodistas aman escuchar esto. Las startups ganan la carrera por la atención a través de nombres atractivos. Pero es arriesgado. El marketing excesivamente endulzado crea hype. El hype crea expectativas infladas. Las expectativas crean decepción. Luego los reguladores exigen honestidad. Y las empresas pierden confianza.

Lo que esto significa

Las empresas de IA necesitan honestidad en la terminología. No "soñar" y no "pensar"—estas palabras solo funcionan si no respetas a tu audiencia y su capacidad de entender complejidad. Anthropic y OpenAI deberían ser más audaces. Las descripciones honestas de funciones son el mejor PR a largo plazo. Y el mundo necesita una conversación sobre qué puede y qué no puede hacer la IA, sin engaño bonito. Porque la gente tiene derecho a saber con qué están tratando.

ЖХ
Hamidun News
Noticias de AI sin ruido. Selección editorial diaria de más de 400 fuentes. Producto de Zhemal Khamidun, Head of AI en Alpina Digital.
¿Qué te parece?
Cargando comentarios…