OpenAI снизила галлюцинации в ChatGPT на 52% — новая модель GPT-5.5 Instant
OpenAI улучшила точность ChatGPT. Новая модель GPT-5.5 Instant производит на 52,5% меньше галлюцинаций на опасных промптах (медицина, право, финансы) и на 37,3%

OpenAI представила обновлённый дефолт-модель для ChatGPT — GPT-5.5 Instant, который работает значительно честнее и выдумывает куда меньше.
Цифры улучшений
Галлюцинации (когда модель выдумывает ложную информацию) давно раздражают пользователей ChatGPT. OpenAI заявляет, что на основе внутренних тестов GPT-5.5 Instant произвёл на 52,5% меньше выдуманных фактов, чем предыдущий Instant для GPT-5.3, особенно на высокорисковых вопросах из медицины, права и финансов. На сложных разговорах, которые пользователи сами отметили как содержащие ошибки, новая модель сократила неточные утверждения на 37,3%. Это существенный прогресс для областей, где ошибка стоит денег или здоровья.
Где помогает больше всего
Улучшения заметны именно там, где ошибки критичны: Медицина и диагностика Юридические консультации и интерпретация законов Финансовое планирование и инвестиции Сложные технические вопросы * Факт-чекинг и проверка информации ## Когда ещё можно ошибаться OpenAI не скрывает, что это не панацея. Галлюцинации хоть и сократились, но полностью не исчезли. Модель всё ещё может ошибаться на совсем новых фактах, которых нет в её обучающих данных, и на очень специализированных вопросах, где нужна редкая экспертиза.
Что это значит
Переход к GPT-5.5 Instant как дефолту — сигнал, что OpenAI серьёзно работает над надёжностью. Для пользователей, которые полагаются на ChatGPT для работы с критичной информацией, это улучшение заметно. Но по-прежнему нужна здравая критичность: проверяй факты в важных решениях, не слепо доверяй ответам.