Gemini 3.1 Pro superou ChatGPT 5.4 e Claude Opus 4.6 em teste de geração de texto
Gemini 3.1 Pro venceu uma comparação entre modelos de geração de texto, enfrentando ChatGPT 5.4 e Claude Opus 4.6. O autor submeteu os três sistemas a quatro ta

Gemini 3.1 Pro стала победителем в авторском сравнении моделей для генерации текста, обойдя ChatGPT 5.4 и Claude Opus 4.6. Разрыв получился небольшим, но именно Gemini автор назвал самым ровным инструментом для литературных и эмоциональных задач.
Как тестировали
Сравнение было построено не на коде, поиске или математике, а на том, что для массового пользователя до сих пор остается главным сценарием работы с ИИ: написании текста. Для этого трем моделям дали четыре задания. Нужно было создать комедийную научную фантастику, классическое фэнтези, психологический хоррор и короткий эмоциональный рассказ о человеке, потерявшемся в лесу.
Максимум за каждый раунд — три балла, а итоговая оценка складывалась из жанрового попадания, читаемости, уместности деталей и общего впечатления от результата. Подход получился субъективным, но именно в этом его ценность. Такой тест не измеряет абстрактный интеллект, а показывает, как модель ведет себя в реальной редакторской задаче: держит ли тон, не ломает ли структуру, не уходит ли в избыточное многословие и может ли передать эмоцию без лишних пояснений.
Автор отдельно отмечает, что одни модели склонны перегружать текст, а другие, наоборот, выбирают краткость. Для генерации постов, черновиков, историй и сценариев это часто важнее сухих бенчмарков.
Расклад по моделям Лучший результат показала Gemini 3.1 Pro — 11,5 балла из 12 возможных.
Она уверенно прошла комедийное задание и сильнее других справилась с эмоциональным рассказом о тревоге в лесу. Claude Opus 4.6 завершил тест с 11 баллами, а ChatGPT 5.4 — с 10. При этом провала не случилось ни у кого: все три модели в целом показали высокий уровень и отличались скорее стилем, чем качественным разрывом.
- Gemini 3.1 Pro — 11,5 балла; сильна в жанровом попадании и компактной подаче Claude Opus 4.6 — 11 баллов; хорошо строит атмосферу, но иногда перегружает текст ChatGPT 5.4 — 10 баллов; стабилен, но местами делает стилистически спорные ходы В хоррор-задании все три модели получили одинаковые 2,5 балла Самой экономичной по цене автор назвал модель OpenAI ## Почему впереди Gemini Главная причина победы Gemini, по версии автора, — баланс. Модель не пытается впечатлить длиной ответа, не разжевывает каждую сцену и не теряет жанровую рамку. В комедийной истории это выразилось в более живом темпе и удачном юморе, а в эмоциональном тексте — в понятной эскалации от отрицания к панике и отчаянию. Для контентных задач это критично: если модель пишет короче, но точнее, редактору проще брать такой текст в работу и меньше времени тратить на чистку. У конкурентов нашлись свои слабые места. ChatGPT 5.4, по наблюдению автора, иногда слишком явно обозначает конструкцию рассказа — например, подчеркивает кульминации глав, из-за чего текст теряет естественность. Claude Opus 4.6, наоборот, хорошо нагнетает атмосферу, особенно в историях про изоляцию и паранойю, но временами становится слишком обстоятельным и аналитичным. Это не ломает качество полностью, но снижает эмоциональный удар, который в художественном тексте должен срабатывать быстрее.
Итоговым победителем стала Gemini 3.1 Pro, хотя два других участника показали тоже хороший результат.
Автор отдельно оговаривает, что не считает этот результат универсальным приговором рынку. Выбор модели все равно зависит от вкуса и задачи: кому-то важнее четкость и предсказуемость ChatGPT, кому-то ближе атмосферность Claude. Более того, для базовой генерации текста, по его мнению, может хватить и бесплатных решений вроде DeepSeek. Но если смотреть именно на сочетание стиля, компактности и жанровой точности в этом тесте, лидерство Gemini выглядит заслуженным.
Что это значит
Для редакторов, авторов и команд контента вывод довольно практичный: искать нужно не «самую умную» модель вообще, а ту, что лучше держит конкретный формат. В этом сравнении Gemini 3.1 Pro оказалась самым ровным вариантом для текстовых задач, но разница между участниками невелика. Значит, в реальной работе победителя стоит выбирать не по громкому имени, а по тому, сколько правок приходится вносить после первого черновика.