3DNews AI→ оригинал

OpenAI affirme que ChatGPT a appris à compter les lettres, mais échoue toujours sur les mots simples

OpenAI a annoncé que ChatGPT a finalement appris à compter correctement les lettres dans le mot strawberry et gère mieux les pièges logiques simples. Mais il es

OpenAI affirme que ChatGPT a appris à compter les lettres, mais échoue toujours sur les mots simples
Источник: 3DNews AI. Коллаж: Hamidun News.

OpenAI заявила, что ChatGPT наконец научился правильно отвечать на вопрос о количестве букв R в слове strawberry — одном из самых известных тестов на здравый смысл для AI-чатботов. Но почти сразу после этого пользователи показали, что в почти идентичных задачах модель всё ещё ошибается и делает это с прежней уверенностью.

Что именно исправили Вопрос про strawberry давно стал мемом вокруг больших языковых моделей.

Для человека задача тривиальна: нужно просто посчитать буквы. Но ChatGPT долгое время регулярно отвечал неверно и мог настаивать, что в слове нет трёх букв R. Похожая история была и с другим популярным запросом: «Я хочу сегодня помыть машину, но автомойка всего в 50 метрах.

Стоит ли мне идти пешком, чтобы доехать туда?» Вместо того чтобы заметить логическую нелепость формулировки, бот часто советовал идти пешком, чтобы потом ехать. 28 апреля 2026 года OpenAI написала в X, что оба кейса наконец исправлены, и подала это как маленькую, но символичную победу над старыми мемами про ChatGPT.

Посыл был простой: модель стала лучше справляться с элементарной логикой и буквенным анализом, на которых раньше спотыкалась. Но эффект от этого заявления быстро смазался, потому что пользователи тут же начали проверять соседние формулировки и искать, насколько широко работает исправление.

«Наконец-то»

Где бот ломается Самый показательный пример — слово cranberry.

На вопрос о том, сколько букв r в этом слове, ChatGPT, как заметили пользователи, всё ещё нередко отвечает, что такая буква встречается один раз. Это неверно: их две. То есть модель может проходить один вирусный тест и проваливать почти такой же тест через минуту. Именно поэтому многие заподозрили, что OpenAI не решила корневую проблему, а просто закрыла несколько слишком заметных сценариев.

  • В слове strawberry модель теперь чаще считает буквы правильно Запрос про автомойку в 50 метрах тоже стал отрабатывать логичнее В слове cranberry бот всё ещё способен уверенно назвать неверное число букв * После замечания модель может не признать ошибку сразу, а продолжить спорить Именно поэтому возникла версия о точечных, возможно жёстко прописанных заплатках. Если модель усвоила общее правило, она должна одинаково применять его к схожим словам и задачам, а не проходить только заранее известные вирусные тесты. С этой точки зрения один правильный ответ сам по себе почти ничего не доказывает: важен не факт исправления конкретного мема, а перенос логики на близкие случаи без ручной настройки.

Почему это важно История кажется смешной только на поверхности.

Ошибка в подсчёте букв сама по себе безобидна, но она хорошо показывает более неприятную особенность современных AI-систем: они могут выдавать неправду уверенно и без внутренних сигналов тревоги. Модель не говорит «я не уверен» и не всегда замечает противоречие даже после уточнения. Из-за этого пользователь получает не просто неточный ответ, а ответ, который выглядит убедительно.

С технической точки зрения это не такая уж неожиданность. Большие языковые модели отлично предсказывают правдоподобное продолжение текста, но не обязаны стабильно выполнять символьные операции или строгие логические проверки в каждом похожем кейсе. Поэтому провал на уровне одной буквы — это не курьёз в вакууме, а симптом более общего ограничения.

Та же схема может проявляться в пересказах документов, советах, сводках, сравнении чисел и любых задачах, где нужна не плавная речь, а точная внутренняя проверка результата.

Что это значит

Для OpenAI эта история — напоминание, что пользователи уже оценивают модель не по красивым анонсам, а по устойчивости на соседних примерах. Если ChatGPT исправили только для пары мемных запросов, доверие от этого почти не растёт. Для обычного пользователя вывод простой: даже когда бот уверенно справляется с известной ловушкой, его ответы на простые буквенные, числовые и логические задачи всё ещё нужно перепроверять.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…