Barry Diller défend Altman, mais avertit du danger de l'AGI
Le magnat des médias Barry Diller défend Sam Altman tout en s'inquiétant de l'AGI. Selon lui, la confiance personnelle envers le dirigeant d'OpenAI pèse peu fac

Barry Diller a défendu Sam Altman, mais avec une réserve qui sonne comme un avertissement : la confiance dans les humains est sans objet quand l'AGI est à l'horizon.
Défense et Alarme Simultanément
Le magnat des médias et fondateur d'IAC n'a pas parlé de manière critique à propos du PDG d'OpenAI. Diller a reconnu la compétence d'Altman. Mais il a ensuite ajouté une réserve tranchante : à mesure que l'AGI s'approche, la compétence du leadership n'est pas la solution. La confiance dans les humains devient sans objet face à une technologie difficile ou impossible à contrôler complètement.
Pourquoi la Confiance Est Sans Objet
L'AGI est un système intelligent hypothétique qui surpasserait l'intelligence humaine dans tous les domaines. Si l'AGI arrive réellement, alors les motifs, la compétence et l'honnêteté d'une personne s'avèrent être une protection insuffisante. Un système qui surpasse l'intelligence humaine pourrait échapper au contrôle indépendamment des intentions de ses créateurs.
- Même un leader consciencieux ne peut pas garantir la sécurité de l'AGI
- Le problème réside dans la nature même de l'AGI, non dans la qualité de la gestion
- Des limitations techniques sont nécessaires, intégrées dans le système lui-même
«
La confiance est sans objet quand il s'agit d'AGI » — l'essence de la position de Diller, bien qu'il ne nie pas le professionnalisme d'Altman.
Les Guardrails comme Seule Voie
Diller souligne la nécessité des « guardrails » — des mécanismes de contrôle et de restriction qui doivent être intégrés dans l'AGI au niveau de l'architecture et des algorithmes. Ce n'est pas une question de gestion ni une question de culture d'entreprise. C'est une question de sécurité technique. Ces mécanismes doivent empêcher le système de s'écarter de ses objectifs prévus, quel que soit celui qui le contrôle. Les guardrails fonctionnent automatiquement, au niveau du code et des algorithmes, non au niveau de la décision humaine.
Ce Que Cela Signifie
La déclaration de Diller reflète un consensus croissant dans la communauté IA : se préparer pour l'AGI ne doit pas se faire par la sélection de bonnes personnes pour les postes de direction, mais par la construction d'une technologie sûre par défaut. La protection contre l'AGI n'est pas une question de confiance en Sam Altman ou en tout autre leader. C'est une question d'ingénierie.