OpenAI admitiu fracasso: por que novo ChatGPT ficou mais burro
Сэм Альтман внезапно сменил риторику с триумфальной на покаянную. Глава OpenAI подтвердил, что последняя итерация ChatGPT — это шаг назад в плане качества и лог

Представьте ситуацию: вы обновляете приложение, которое стало вашим основным рабочим инструментом, и вдруг замечаете, что оно начало тупить. Оно делает ошибки в простых расчетах, ленится писать полный код и отвечает шаблонными фразами там, где раньше проявляло гибкость. Долгое время фанаты OpenAI списывали это на эффект плацебо или усталость от технологий, но теперь карты раскрыты. Сэм Альтман официально признал, что компания сделала новую версию ChatGPT хуже предыдущей. Его фраза «я думаю, мы просто это запороли» звучит как редкое проявление искренности в мире, где принято любой баг называть фичей.
Давайте вспомним контекст. Когда вышла GPT-4, она казалась магией. Но с каждым последующим обновлением — от Turbo до 4o — сообщество разработчиков все громче кричало о деградации. Модель начала страдать «нейросетевой ленью». Вместо того чтобы написать сто строк кода, она выдавала десять и предлагала пользователю дописать остальное самостоятельно. OpenAI пыталась оптимизировать расходы на вычисления и сделать ответы быстрее, но в процессе, похоже, выплеснула вместе с водой и младенца. Скорость выросла, а интеллект просел.
Почему это произошло именно сейчас? Ответ кроется в невероятном давлении рынка. OpenAI больше не единственный игрок на поле. Когда Claude 3.5 Sonnet от Anthropic начал обходить GPT-4o в тестах на кодинг и креативность, в штаб-квартире Альтмана явно началась паника. В спешке выкатываются обновления, которые должны быть «безопаснее» и «быстрее», но алгоритмы обучения ИИ — штука капризная. Чрезмерная цензура и попытки втиснуть модель в жесткие рамки этики часто приводят к тому, что нейросеть начинает осторожничать и в итоге выдает посредственный результат.
Технически это объясняется перекосом в RLHF — обучении с подкреплением на основе отзывов людей. Если тренеры-люди поощряют краткость, модель становится лаконичной до абсурда. Если они требуют безопасности, модель начинает видеть угрозу даже в безобидном вопросе о том, как сварить суп. OpenAI, судя по всему, перекрутила гайки в попытке сделать продукт массовым и корпоративно-безопасным. В итоге профессионалы, которым нужен был мощный инструмент для работы, почувствовали себя обманутыми.
Интересно, что Альтман признает это именно сейчас. Это может быть тонким ходом перед анонсом чего-то действительно масштабного, например, GPT-5 или модели Strawberry. Признать старые ошибки — лучший способ подготовить почву для продажи нового «революционного» решения. Мол, да, прошлая версия была неудачной, но посмотрите, как мы все исправили в новой. Это классический прогрев аудитории, который мы уже не раз видели в исполнении Apple и других техгигантов.
Для индустрии это важный урок. Оказывается, закон масштабирования не работает линейно. Нельзя просто влить больше данных и мощностей, чтобы получить более умную систему. Качество данных и точность настройки значат гораздо больше. Пока OpenAI занимается самобичеванием, их конкуренты получают отличный шанс переманить лояльную аудиторию. Ведь в мире ИИ верность бренду длится ровно до того момента, пока другая вкладка в браузере не начинает соображать быстрее.
Главное: OpenAI официально подтвердила регресс своих моделей. Сможет ли компания вернуть доверие профессионалов выпуском GPT-5 или эпоха доминирования Альтмана подходит к концу?