حققت GPT-5.2 أفضل النتائج في امتحانات القبول بجامعات طوكيو وكيوتو
حققت GPT-5.2 في وضع الاستدلال أفضل النتائج في امتحانات القبول بجامعات طوكيو وكيوتو. في اختبارات LifePrompt، فاقت GPT-5.2 أداء المتقدمين هذا العام وتجاوزت حتى ال

GPT-5.2 добралась до ещё одного рубежа, который долго считался человеческой территорией: в тестировании на заданиях вступительных экзаменов Токийского и Киотского университетов модель показала результат выше, чем у абитуриентов этого года. Причём речь не о простом прохождении порога — по данным LifePrompt, система в режиме размышления вышла на уровень, который перекрывает даже самые высокие проходные показатели на ряде направлений, включая медицину.
Тесты проводила компания LifePrompt, сравнивая ответы модели с актуальными экзаменационными заданиями и результатами реальной приёмной кампании. Важно, что это не официальное участие нейросети в японском наборе и не история про зачисление в университет: скорее это стресс-тест академических способностей модели в максимально конкурентной среде. Но именно такой формат и ценен: он позволяет оценить не абстрактный benchmark, а то, как ИИ справляется с комплексными заданиями, на которых отсекают сильнейших кандидатов.
Выбор площадки здесь тоже неслучаен. Токийский и Киотский университеты — два самых престижных и избирательных вуза Японии, а медицинские программы традиционно входят в число самых трудных для поступления. Если модель действительно обходит верхнюю планку проходных баллов на таких направлениях, это означает не просто хорошую эрудицию.
Это признак устойчивой способности работать с задачами, где нужны логика, длинные цепочки рассуждений, аккуратные вычисления и умение не терять контекст между несколькими условиями. Ключевую роль, судя по описанию теста, сыграл режим размышления. В нём модель тратит больше времени на внутренний разбор задачи, прежде чем выдать финальный ответ.
Для вступительных экзаменов это особенно важно: подобные задания часто наказывают не за незнание факта, а за одну неверную промежуточную связку. Поэтому прогресс таких систем всё меньше напоминает «угадывание по статистике» и всё больше — полноценное решение задач в пошаговом формате. Одновременно это не отменяет ограничений: даже выдающийся балл на экзаменационных наборах ещё не доказывает, что модель одинаково надёжна в живом диалоге, исследовательской работе или клинических решениях.
Для образования это сигнал сразу в нескольких направлениях. Во-первых, типовые экзамены всё хуже выполняют роль чистого фильтра по знаниям, если сильная reasoning-модель способна стабильно проходить их лучше большинства людей. Во-вторых, меняется сама ценность подготовки: важнее становится не механическое решение знакомых задач, а умение формулировать вопросы, проверять промежуточные шаги, защищать выводы и работать в связке с ИИ-инструментами.
Наконец, такие результаты подталкивают университеты пересматривать методы оценки — добавлять больше устных компонентов, проектной работы и заданий, где критична самостоятельная аргументация, а не только финальный ответ в бланке. Для рынка ИИ это ещё и демонстрация того, куда движется конкуренция между моделями. Побеждает уже не та система, которая красивее формулирует текст, а та, что выдерживает длинные когнитивные нагрузки и сохраняет точность под давлением сложных условий.
Академические экзамены удобны именно потому, что у них высокая цена ошибки и понятный критерий успеха. Если модель начинает уверенно выигрывать в такой среде, её потенциал быстро выходит за пределы образования — в аналитику, инженерные расчёты, подготовку к сертификациям и другие области, где нужна дисциплина мышления. Главный вывод простой: планка для «умного» ИИ снова поднялась, и теперь вопрос уже не в том, может ли модель сдать сложный экзамен, а в том, как людям и институтам перестраивать правила вокруг этого факта.
Пока такие тесты остаются скорее демонстрацией возможностей, чем заменой реальной экспертизы. Но разрыв между академическими задачами для человека и для сильной модели продолжает быстро сокращаться.