Guardian→ original

Data centers de AI consomem 6% da eletricidade no UK e nos US

Os data centers consomem 6% da eletricidade no Reino Unido e nos Estados Unidos, tornando-se um dos principais fatores da crise energética. O investimento anual

Data centers de AI consomem 6% da eletricidade no UK e nos US
Fonte: Guardian. Colagem: Hamidun News.
◐ Ouvir artigo

Os data centers que alimentam inteligência artificial e serviços em nuvem consomem 6% da eletricidade no Reino Unido e nos EUA. Esse número está crescendo rapidamente e já está causando resistência pública em comunidades locais. Uma nova pesquisa mostra que o custo energético da IA será um dos principais problemas da próxima década.

Investimentos em data centers em nível de economia estatal

A Associação Internacional de Data Centers (IDCA) publicou uma pesquisa mostrando que os investimentos globais anuais em data centers estão se aproximando de 1 trilhão de dólares. Isto é aproximadamente 1% da economia mundial — uma enorme parcela comparável às economias de países inteiros. O número demonstra como a infraestrutura de armazenamento e processamento de dados se tornou crítica no mundo moderno.

O consumo de eletricidade pelos data centers cresceu 15% globalmente nos últimos dois anos. Essa taxa de crescimento é mais que o dobro do crescimento médio no consumo de eletricidade e é impulsionada principalmente pela aceleração na implementação de sistemas de IA — desde o treinamento de grandes modelos de linguagem até o lançamento de aplicações em produção.

Para entender a escala: se cinco anos atrás streaming de vídeo e armazenamento em nuvem eram os principais consumidores de energia nos data centers, hoje a IA foi adicionada, exigindo ordens de magnitude mais potência.

  • Treinar uma grande rede neural requer vários meses de trabalho contínuo em clusters de GPU poderosos
  • Executar inferência (calcular respostas para usuários) requer um fluxo constante de computação 24/7
  • Duplicação e backup de infraestrutura por razões de confiabilidade aumenta o consumo total em 20-30%
  • O resfriamento de servidores torna-se um dos maiores itens de despesa e pode atingir 40% do consumo total de energia

Por que a IA requer tanta eletricidade

Por trás de cada chatbot que você usa existem processos computacionais massivos. Enquanto os data centers anteriormente alimentavam principalmente websites, serviços de streaming e redes sociais, a IA foi agora adicionada, exigindo ordens de magnitude mais potência.

Treinar um único modelo grande pode exigir tanta eletricidade quanto milhares de casas consomem em um ano. Por exemplo, treinar o GPT-4 exigiu aproximadamente tanta energia quanto uma pequena cidade consome em um mês. E quando o modelo está pronto, sua operação para milhões de usuários requer um fluxo constante de energia, porque os servidores funcionam sem interrupção.

Além disso, as empresas frequentemente treinam múltiplas versões de um modelo e as mantêm na memória para acesso rápido. Isso aumenta ainda mais os custos energéticos.

"O custo energético da IA é um código de trapaça oculto na economia", observou um dos pesquisadores da IDCA em entrevista para

The Guardian.

Comunidades locais se levantam contra a expansão dos data centers

A onda de desenvolvimento de IA levou a conflitos com comunidades locais. Os residentes se opõem à construção de novos data centers, temendo contas de eletricidade mais altas e qualidade de vida degradada. Em algumas áreas do Reino Unido e dos EUA, resoluções contra a expansão de capacidade já foram adotadas, e em alguns casos, permissões para novas construções foram congeladas.

O problema é agudo: se os data centers continuarem consumindo eletricidade à taxa de crescimento atual de 15% por ano, isso competirá seriamente com as necessidades dos cidadãos comuns, hospitais e indústria. Em algumas regiões, escassez de energia durante horas de pico já está sendo observada.

O que isso significa

A comunidade de desenvolvedores de IA e empresas como OpenAI, Google, Meta enfrentaram uma realidade dura: o progresso tecnológico tem um custo energético real. Ou será necessária uma transição em larga escala para fontes de energia renováveis (eólica, solar, nuclear), ou os próprios algoritmos precisarão ser otimizados para exigir menos computação. Ambos os caminhos exigem investimentos e tempo enormes.

Até que isso aconteça, a crise energética será um dos principais fatores limitantes no desenvolvimento da IA.

ZK
Hamidun News
Notícias de AI sem ruído. Seleção editorial diária de mais de 400 fontes. Produto de Zhemal Khamidun, Head of AI na Alpina Digital.
O que você acha?
Carregando comentários…