ChatGPT, Gemini и Claude дали разные прогнозы исчезновения профессий
ChatGPT-5, Gemini 2.5 и Claude 4.5 дали кардинально разные оценки того, какие профессии исчезнут из-за ИИ. Противоречия ставят под сомнение надёжность индексов

Три крупнейшие языковые модели — ChatGPT-5, Gemini 2.5 и Claude 4.5 — дали кардинально противоречивые оценки того, какие профессии и отрасли больше всего пострадают от автоматизации ИИ.
Модели не договорились друг с другом
Исследователи попросили каждую модель оценить, насколько разные профессии подвержены влиянию искусственного интеллекта. Результаты разошлись настолько кардинально, что ставят под вопрос саму идею универсального индекса подверженности. ChatGPT выделил одни профессии как высокорисковые, Gemini выбрал совсем другой набор, а Claude предложил третий вариант. Особенно заметны расхождения в оценке творческих специальностей, технических позиций и управленческих ролей. Если для одной модели программист находился в зоне высокого риска, для другой его профессия казалась относительно защищённой. То же самое касается дизайнеров, аналитиков и консультантов — три модели видят их будущее совершенно по-разному.
Почему это опасно для политики и экономики
На эти индексы опираются министерства, правительства и крупные корпорации при планировании переподготовки рабочей силы, развития образования и социальной политики. Если три авторитетных модели дают противоречивые сигналы, возникает реальный риск неправильного распределения государственных ресурсов. Представьте: правительство инвестирует миллиарды в переподготовку тысяч работников в одних областях, исходя из прогноза ChatGPT, а реальное вытеснение происходит совсем в других сферах, как предсказывал Claude. Работники окажутся переквалифицированы в ненужную область, а параллельно произойдёт социальный кризис в незащищённых отраслях.
- Политики не знают, на какой индекс опираться при выборе приоритетных профессий для поддержки Компании могут неправильно спланировать инвестиции в автоматизацию на основе противоречивых прогнозов Образовательные учреждения неуверены, какие навыки готовить в приоритете ## Как это произошло Одна из главных причин — разные архитектуры и обучающие данные этих моделей. ChatGPT, Gemini и Claude обучены на разных наборах текстов и имеют разные размеры, поэтому оценки получаются субъективно окрашены. Каждая модель интерпретирует, что такое «подверженность ИИ», по-своему. Кроме того, индексы подверженности — это в принципе грубые инструменты. Они пытаются свести сложную реальность экономики и развития технологий к единому числу на каждую профессию. На практике влияние ИИ зависит от множества факторов: региона, уровня зарплаты, специфики компании, скорости внедрения технологий и политической воли правительств.
Что это значит Пока ИИ учат оценивать свой же удар по экономике, результаты будут расходиться.
Это не значит, что индексы бесполезны — просто пора смотреть на них как на один из многих сигналов, а не как на истину в последней инстанции. Политикам и работодателям нужно комбинировать данные из разных моделей, анализировать локальные факторы и не спешить с кардинальными решениями на основе одного индекса.