ChatGPT, Gemini y Claude hicieron predicciones diferentes sobre qué profesiones desaparecerán
ChatGPT-5, Gemini 2.5 y Claude 4.5 ofrecieron evaluaciones radicalmente distintas sobre qué profesiones desaparecerán a causa de la AI. Las contradicciones pone

Tres de los mayores modelos de lenguaje — ChatGPT-5, Gemini 2.5 y Claude 4.5 — dieron evaluaciones drásticamente contradictorias sobre cuáles profesiones e industrias sufrirán más por la automatización de IA.
Los modelos no llegaron a un acuerdo
Los investigadores pidieron a cada modelo que evaluara cuán diferentes profesiones son vulnerables a la inteligencia artificial. Los resultados divergieron tan drásticamente que cuestionan la propia idea de un índice universal de vulnerabilidad. ChatGPT destacó ciertas profesiones como de alto riesgo, Gemini seleccionó un conjunto completamente diferente, y Claude propuso una tercera variante. Particularmente notables son las discrepancias en la evaluación de especialidades creativas, posiciones técnicas y roles gerenciales. Si para un modelo un programador estaba en la zona de alto riesgo, para otro su profesión parecía relativamente protegida. Lo mismo aplica para diseñadores, analistas y consultores — los tres modelos ven su futuro de forma completamente diferente.
Por qué esto es peligroso para la política y la economía
Estos índices son utilizados por ministerios, gobiernos y grandes corporaciones al planificar reciclaje de la fuerza laboral, desarrollar educación y moldear política social. Si tres modelos autorizados dan señales conflictivas, existe un riesgo real de distribución incorrecta de recursos estatales. Imagina: el gobierno invierte miles de millones en reciclaje de miles de trabajadores en ciertos campos basado en la predicción de ChatGPT, pero el desplazamiento real ocurre en sectores completamente diferentes, como predijo Claude. Los trabajadores serán reciclados para un campo innecesario, y simultáneamente ocurrirá una crisis social en industrias desprotegidas.
- Los políticos no saben en cuál índice confiar al elegir profesiones prioritarias para apoyar
- Las empresas pueden planificar incorrectamente inversiones en automatización basadas en predicciones contradictorias
- Las instituciones educativas están inciertas sobre qué habilidades priorizar en la enseñanza
Cómo sucedió esto
Una de las principales razones son las diferentes arquitecturas y datos de entrenamiento de estos modelos. ChatGPT, Gemini y Claude fueron entrenados en diferentes conjuntos de textos y tienen diferentes tamaños, por lo que las evaluaciones resultan subjetivamente coloreadas. Cada modelo interpreta qué significa "vulnerabilidad a la IA" a su manera. Además, los índices de vulnerabilidad son herramientas toscas en principio. Intentan reducir la realidad compleja de la economía y el desarrollo tecnológico a un solo número para cada profesión. En la práctica, el impacto de la IA depende de muchos factores: región, nivel salarial, especificidades de la empresa, velocidad de implementación tecnológica y voluntad política del gobierno.
Qué significa esto
Mientras la IA aprende a evaluar su propio impacto en la economía, los resultados seguirán divergiendo. Esto no significa que los índices sean inútiles — es simplemente hora de verlos como una de muchas señales, no como la verdad definitiva. Los políticos y empleadores necesitan combinar datos de diferentes modelos, analizar factores locales, y no apresurarse en decisiones radicales basadas en un solo índice.