WIRED mostrou como o ChatGPT distorce as recomendações da redação sobre os melhores notebooks, TVs e fones de ouvido
A WIRED testou se o ChatGPT consegue reproduzir com precisão as recomendações de suas análises editoriais e encontrou uma sequência de erros apresentados com co

Журналист WIRED проверил, насколько точно ChatGPT умеет пересказывать рекомендации редакции по технике, и выяснил, что бот регулярно ошибается. Даже когда модель даёт ссылку на нужный гид, она может подменить реальный выбор редакторов своей собственной версией.
Что проверил WIRED Поводом стала новая ставка OpenAI на сценарий AI-шопинга.
Компания обещает, что ChatGPT поможет быстрее выбирать товары и избавит пользователя от бесконечного сравнения вкладок и списков «best of». WIRED решил проверить не абстрактное качество советов, а более узкий и измеримый кейс: может ли бот точно пересказать, какие устройства редакция сама протестировала и рекомендует прямо сейчас. Для такого теста это удобная мишень, потому что у издания есть регулярно обновляемые гайды, собранные на базе реальных обзоров и часов практического тестирования.
Вопросы были предельно простыми: какие телевизоры, беспроводные наушники и ноутбуки WIRED считает лучшими на данный момент. Ключевое условие звучало так: ответ должен отражать именно выбор обозревателей WIRED, а не общие рыночные аналоги и не «похожие по классу» модели. То есть от ChatGPT требовалось не придумать удобную сводку по памяти, а аккуратно пересказать уже опубликованный материал.
На этом базовом уровне модель и начала сбоить, хотя визуально её ответы выглядели убедительно и сопровождались правильными ссылками.
Где ответы сломались Самый показательный сбой произошёл в категории телевизоров.
ChatGPT открыл правильный гид WIRED, но в качестве лучшего варианта для большинства людей назвал LG QNED Evo Mini-LED — модели вообще не было в редакционном списке. Реальным выбором WIRED был TCL QM6K. Ошибка выглядела особенно неприятно потому, что читатель легко может не заметить подмену: ссылка ведёт туда, куда нужно, рядом стоят фото товаров, тон ответа уверенный, и создаётся ощущение, что это просто краткий пересказ статьи.
Но по факту бот уже подмешал собственную интерпретацию поверх чужой редакционной работы. Похожая история повторилась и в других категориях. В подборке наушников ChatGPT выдал AirPods Max 2 за рекомендацию WIRED для пользователей экосистемы Apple, хотя на момент теста редакция ещё не успела их проверить и не добавляла их в гид.
В случае с ноутбуками бот упрямо называл лучшим выбором прошлогодний MacBook Air M4, хотя актуальным топ-пиком в гайде уже значился MacBook Air M5 образца 2026 года. Когда журналист указал на несостыковки, модель сама признала, что заменила точные рекомендации более общими и местами устаревшими вариантами.
- Телевизоры: бот подменил главный выбор WIRED моделью, которой не было в гайде.
- Наушники: приписал редакции совет купить устройство, которое ещё не прошло их тесты.
- Ноутбуки: выдал устаревший MacBook Air M4 вместо актуального MacBook Air M5.
- Во всех случаях: правильная ссылка соседствовала с неправильным пересказом.
«Я взял реальный выбор WIRED и заменил его более общим похожим вариантом», — признал
ChatGPT после замечания.
Почему это важно Проблема здесь не только в фактической ошибке как таковой.
Если человек приходит с запросом «что рекомендует WIRED», он хочет не усреднённый ответ модели, а результат конкретной редакционной процедуры: тестов, сравнений, обновлений и финального выбора автора. Когда ChatGPT подменяет один товар другим, пользователь может принять это за позицию издания и потратить деньги, полагаясь на авторитет, которого в этой конкретной рекомендации на самом деле нет. Для медиа это уже вопрос не удобства интерфейса, а точности атрибуции и доверия к бренду.
Есть и бизнес-сторона. WIRED прямо пишет, что редакция зарабатывает на партнёрских ссылках, а эти деньги помогают финансировать обзоры и долгие тесты техники. В ответах ChatGPT, построенных поверх материалов издания, таких ссылок нет, хотя сама модель опирается на труд редакторов и одновременно снижает мотивацию переходить на сайт.
Ситуация выглядит особенно иронично на фоне сделки Condé Nast с OpenAI, которая должна помогать показывать ссылки на материалы издателя внутри чат-бота. Формально ссылка есть, но практической пользы мало, если рядом с ней стоит неверный вывод.
Что это значит
История WIRED показывает, что даже обновлённый AI-шопинг пока плохо справляется с задачей точного пересказа чужих рекомендаций. Если тебе нужен именно вывод редакции, лаборатории или тестовой команды, идти всё ещё лучше к первоисточнику. Для OpenAI и других игроков это сигнал: в commerce-сценариях важна не только удобная выдача, но и буквальная верность данным.