TechCrunch→ original

Barry Diller defende Altman, mas alerta para o perigo da AGI

O magnata da mídia Barry Diller ao mesmo tempo defende Sam Altman e se preocupa com a AGI. Segundo ele, a confiança pessoal no líder da OpenAI tem pouca relevân

Barry Diller defende Altman, mas alerta para o perigo da AGI
Fonte: TechCrunch. Коллаж: Hamidun News.
◐ Ouvir artigo

Barry Diller defendeu Sam Altman, mas com uma ressalva que soa como um aviso: confiança em humanos é irrelevante quando AGI está no horizonte.

Defesa e Alarme Simultaneamente

O magnata da mídia e fundador da IAC não falou criticamente sobre o CEO da OpenAI. Diller reconheceu a competência de Altman. Mas depois acrescentou uma ressalva dura: conforme a AGI se aproxima, competência de liderança não é a solução. Confiança em humanos se torna irrelevante diante de uma tecnologia que é difícil ou impossível de controlar completamente.

Por Que Confiança É Irrelevante

AGI é um sistema inteligente hipotético que superaria a inteligência humana em todos os domínios. Se a AGI realmente chegar, então os motivos, competência e honestidade de um indivíduo se mostrarão proteção insuficiente. Um sistema que supera a inteligência humana pode sair do controle independentemente das intenções de seus criadores.

  • Até mesmo um líder consciencioso não pode garantir segurança da AGI
  • O problema está na natureza da própria AGI, não na qualidade da gestão
  • Restrições técnicas são necessárias, embutidas no próprio sistema
"Confiança é irrelevante quando se trata de AGI" — a essência da posição de

Diller, embora ele não negue o profissionalismo de Altman.

Guardrails Como o Único Caminho

Diller enfatiza a necessidade de "guardrails" — mecanismos de controle e restrição que devem ser incorporados na AGI no nível de arquitetura e algoritmos. Esta não é uma questão de gestão e não é uma questão de cultura corporativa. Esta é uma questão de segurança técnica. Tais mecanismos devem impedir que o sistema se desvie de seus objetivos pretendidos, independentemente de quem o controla. Guardrails operam automaticamente, no nível de código e algoritmos, não no nível de decisão humana.

O Que Isso Significa

A declaração de Diller reflete um consenso crescente na comunidade de IA: preparar-se para AGI não deve ser feito através da seleção de boas pessoas para posições de liderança, mas através da construção de tecnologia que seja segura por padrão. Proteção contra AGI não é uma questão de confiança em Sam Altman ou em qualquer outro líder. É uma questão de engenharia.

ЖХ
Hamidun News
Notícias de AI sem ruído. Seleção editorial diária de mais de 400 fontes. Produto de Zhemal Khamidun, Head of AI na Alpina Digital.
O que você acha?
Carregando comentários…