OpenAI affirme que ChatGPT a appris à compter les lettres, mais échoue toujours sur les mots simples
OpenAI a annoncé que ChatGPT a finalement appris à compter correctement les lettres dans le mot strawberry et gère mieux les pièges logiques simples. Mais il es

OpenAI заявила, что ChatGPT наконец научился правильно отвечать на вопрос о количестве букв R в слове strawberry — одном из самых известных тестов на здравый смысл для AI-чатботов. Но почти сразу после этого пользователи показали, что в почти идентичных задачах модель всё ещё ошибается и делает это с прежней уверенностью.
Что именно исправили Вопрос про strawberry давно стал мемом вокруг больших языковых моделей.
Для человека задача тривиальна: нужно просто посчитать буквы. Но ChatGPT долгое время регулярно отвечал неверно и мог настаивать, что в слове нет трёх букв R. Похожая история была и с другим популярным запросом: «Я хочу сегодня помыть машину, но автомойка всего в 50 метрах.
Стоит ли мне идти пешком, чтобы доехать туда?» Вместо того чтобы заметить логическую нелепость формулировки, бот часто советовал идти пешком, чтобы потом ехать. 28 апреля 2026 года OpenAI написала в X, что оба кейса наконец исправлены, и подала это как маленькую, но символичную победу над старыми мемами про ChatGPT.
Посыл был простой: модель стала лучше справляться с элементарной логикой и буквенным анализом, на которых раньше спотыкалась. Но эффект от этого заявления быстро смазался, потому что пользователи тут же начали проверять соседние формулировки и искать, насколько широко работает исправление.
«Наконец-то»
Где бот ломается Самый показательный пример — слово cranberry.
На вопрос о том, сколько букв r в этом слове, ChatGPT, как заметили пользователи, всё ещё нередко отвечает, что такая буква встречается один раз. Это неверно: их две. То есть модель может проходить один вирусный тест и проваливать почти такой же тест через минуту. Именно поэтому многие заподозрили, что OpenAI не решила корневую проблему, а просто закрыла несколько слишком заметных сценариев.
- В слове strawberry модель теперь чаще считает буквы правильно Запрос про автомойку в 50 метрах тоже стал отрабатывать логичнее В слове cranberry бот всё ещё способен уверенно назвать неверное число букв * После замечания модель может не признать ошибку сразу, а продолжить спорить Именно поэтому возникла версия о точечных, возможно жёстко прописанных заплатках. Если модель усвоила общее правило, она должна одинаково применять его к схожим словам и задачам, а не проходить только заранее известные вирусные тесты. С этой точки зрения один правильный ответ сам по себе почти ничего не доказывает: важен не факт исправления конкретного мема, а перенос логики на близкие случаи без ручной настройки.
Почему это важно История кажется смешной только на поверхности.
Ошибка в подсчёте букв сама по себе безобидна, но она хорошо показывает более неприятную особенность современных AI-систем: они могут выдавать неправду уверенно и без внутренних сигналов тревоги. Модель не говорит «я не уверен» и не всегда замечает противоречие даже после уточнения. Из-за этого пользователь получает не просто неточный ответ, а ответ, который выглядит убедительно.
С технической точки зрения это не такая уж неожиданность. Большие языковые модели отлично предсказывают правдоподобное продолжение текста, но не обязаны стабильно выполнять символьные операции или строгие логические проверки в каждом похожем кейсе. Поэтому провал на уровне одной буквы — это не курьёз в вакууме, а симптом более общего ограничения.
Та же схема может проявляться в пересказах документов, советах, сводках, сравнении чисел и любых задачах, где нужна не плавная речь, а точная внутренняя проверка результата.
Что это значит
Для OpenAI эта история — напоминание, что пользователи уже оценивают модель не по красивым анонсам, а по устойчивости на соседних примерах. Если ChatGPT исправили только для пары мемных запросов, доверие от этого почти не растёт. Для обычного пользователя вывод простой: даже когда бот уверенно справляется с известной ловушкой, его ответы на простые буквенные, числовые и логические задачи всё ещё нужно перепроверять.