ChatGPT, Gemini e Claude fizeram previsões diferentes sobre quais profissões vão desaparecer
ChatGPT-5, Gemini 2.5 e Claude 4.5 apresentaram avaliações radicalmente diferentes sobre quais profissões desaparecerão por causa da AI. As contradições colocam

Três maiores modelos de linguagem — ChatGPT-5, Gemini 2.5 e Claude 4.5 — deram avaliações drasticamente contraditórias sobre quais profissões e indústrias sofrerão mais com a automação de IA.
Modelos não se entenderam
Pesquisadores pediram a cada modelo para avaliar o quão diferentes profissões são vulneráveis à inteligência artificial. Os resultados divergiram tão drasticamente que questionam a própria ideia de um índice universal de vulnerabilidade. ChatGPT destacou certas profissões como alto risco, Gemini selecionou um conjunto completamente diferente, e Claude propôs uma terceira variante. Particularmente notáveis são as discrepâncias na avaliação de especialidades criativas, posições técnicas e funções de gestão. Se para um modelo um programador estava na zona de alto risco, para outro sua profissão parecia relativamente protegida. O mesmo vale para designers, analistas e consultores — os três modelos veem seu futuro de forma completamente diferente.
Por que isso é perigoso para política e economia
Esses índices são usados por ministérios, governos e grandes corporações ao planejar reciclagem da força de trabalho, desenvolvendo educação e moldando políticas sociais. Se três modelos autorizados dão sinais conflitantes, há um risco real de distribuição incorreta de recursos estatais. Imagine: o governo investe bilhões em reciclagem de milhares de trabalhadores em certos campos baseado na previsão do ChatGPT, mas o deslocamento real ocorre em setores completamente diferentes, como Claude previu. Trabalhadores serão reciclados para um campo desnecessário, e simultaneamente uma crise social ocorrerá em indústrias desprotegidas.
- Políticos não sabem em qual índice confiar ao escolher profissões prioritárias para apoiar
- Empresas podem planejar incorretamente investimentos em automação baseados em previsões contraditórias
- Instituições educacionais estão incertas sobre quais habilidades priorizar no ensino
Como isso aconteceu
Uma das principais razões é as diferentes arquiteturas e dados de treinamento desses modelos. ChatGPT, Gemini e Claude foram treinados em conjuntos diferentes de textos e têm tamanhos diferentes, então as avaliações acabam sendo coloridas subjetivamente. Cada modelo interpreta o que "vulnerabilidade de IA" significa à sua maneira. Além disso, índices de vulnerabilidade são ferramentas primitivas em princípio. Eles tentam reduzir a realidade complexa da economia e desenvolvimento tecnológico a um único número para cada profissão. Na prática, o impacto da IA depende de muitos fatores: região, nível de salário, especificidades da empresa, velocidade de implementação tecnológica e vontade política do governo.
O que isso significa
Enquanto IA está aprendendo a avaliar seu próprio impacto na economia, os resultados continuarão divergindo. Isso não significa que índices são inúteis — é apenas hora de vê-los como um dos muitos sinais, não como a verdade absoluta. Políticos e empregadores precisam combinar dados de diferentes modelos, analisar fatores locais, e não se apressar em decisões radicais baseadas em um único índice.