TechCrunch→ original

Barry Diller defiende a Altman, pero advierte sobre el peligro de la AGI

El magnate de los medios Barry Diller defiende a Sam Altman y al mismo tiempo se muestra preocupado por la AGI. Según él, la confianza personal en el líder de O

Barry Diller defiende a Altman, pero advierte sobre el peligro de la AGI
Fuente: TechCrunch. Коллаж: Hamidun News.
◐ Escuchar artículo

Barry Diller defendió a Sam Altman, pero con una salvedad que suena como una advertencia: la confianza en los humanos es irrelevante cuando la AGI está en el horizonte.

Defensa y Alarma Simultáneamente

El magnate de los medios y fundador de IAC no habló críticamente sobre el CEO de OpenAI. Diller reconoció la competencia de Altman. Pero luego añadió una salvedad dura: conforme la AGI se acerca, la competencia del liderazgo no es la solución. La confianza en los humanos se vuelve irrelevante ante una tecnología que es difícil o imposible de controlar completamente.

Por Qué la Confianza Es Irrelevante

La AGI es un sistema inteligente hipotético que superaría la inteligencia humana en todos los ámbitos. Si la AGI realmente llega, entonces los motivos, competencia y honestidad de un individuo resultan ser protección insuficiente. Un sistema que supera la inteligencia humana podría escapar del control independientemente de las intenciones de sus creadores.

  • Incluso un líder concienzudo no puede garantizar la seguridad de la AGI
  • El problema radica en la naturaleza misma de la AGI, no en la calidad de la gestión
  • Se requieren limitaciones técnicas, incorporadas en el propio sistema
"La confianza es irrelevante cuando se trata de AGI" — la esencia de la posición de

Diller, aunque no niega el profesionalismo de Altman.

Guardrails como el Único Camino

Diller enfatiza la necesidad de "guardrails" — mecanismos de control y restricción que deben estar integrados en la AGI a nivel de arquitectura y algoritmos. Esta no es una cuestión de gestión ni una cuestión de cultura empresarial. Esta es una cuestión de seguridad técnica. Tales mecanismos deben prevenir que el sistema se desvíe de sus objetivos pretendidos, independientemente de quién lo controle. Los guardrails funcionan automáticamente, a nivel de código y algoritmos, no a nivel de decisión humana.

Qué Significa Esto

La declaración de Diller refleja un consenso creciente en la comunidad de IA: prepararse para la AGI no debe hacerse a través de la selección de buenas personas para posiciones de liderazgo, sino a través de la construcción de tecnología que sea segura por defecto. La protección contra la AGI no es una cuestión de confianza en Sam Altman o en cualquier otro líder. Es una cuestión de ingeniería.

ЖХ
Hamidun News
Noticias de AI sin ruido. Selección editorial diaria de más de 400 fuentes. Producto de Zhemal Khamidun, Head of AI en Alpina Digital.
¿Qué te parece?
Cargando comentarios…