TNW→ оригинал

Почему нарратив «ИИ легко обмануть» упускает главное

BBC опубликовала материал о том, как свежий блог-пост в нишевой теме за считанные минуты начал цитироваться ChatGPT и Google AI. Журналисты назвали это «взломом

Почему нарратив «ИИ легко обмануть» упускает главное
Источник: TNW. Коллаж: Hamidun News.

В конце февраля 2026 года BBC опубликовала громкий материал о том, как генеративные ИИ-системы можно «взломать» за считанные минуты. Журналисты продемонстрировали простой эксперимент: они разместили блог-пост, претендующий на экспертизу в узкоспециализированной теме, и вскоре обнаружили, что ChatGPT от OpenAI и поисковые ИИ-ответы Google начали воспроизводить информацию из этой публикации. Заголовки получились эффектными, а история разлетелась по сети. Но издание The Next Web решило посмотреть на ситуацию с другой стороны — и задало неудобный вопрос: а что, если весь этот нарратив про «ИИ легко обмануть» попросту мимо цели?

Чтобы понять суть спора, нужно разобраться в механике. Современные большие языковые модели, такие как GPT-4o или Gemini, не хранят в себе фиксированную базу знаний вроде энциклопедии. Они обучаются на колоссальных массивах текстов из интернета, а в случае с поисковыми функциями — дополнительно обращаются к свежему веб-контенту в реальном времени. Когда модель с подключённым поиском получает вопрос по редкой теме, она ищет релевантные источники, и если единственный доступный материал — тот самый свежий блог-пост, именно он и становится основой ответа. Это не взлом в классическом понимании. Это следствие архитектурного решения: модель доверяет тому, что находит в сети, примерно так же, как это делает поисковая система.

Именно здесь кроется ключевое расхождение между сенсационным нарративом и реальностью. Называть это «хакингом» — значит подразумевать, что кто-то обошёл защиту системы, нашёл уязвимость в коде или эксплуатировал технический баг. На деле же произошло нечто куда более банальное и одновременно более тревожное: ИИ-система сделала ровно то, для чего была спроектирована — нашла информацию в интернете и пересказала её пользователю. Проблема не в том, что систему обманули, а в том, что у неё нет надёжного механизма отделения достоверных источников от недостоверных. Это не баг, который можно закрыть патчем. Это фундаментальное свойство технологии в её текущем состоянии.

Впрочем, было бы ошибкой отмахнуться от эксперимента BBC как от несущественного. Он подсвечивает реальную и серьёзную проблему — проблему информационного доверия в эпоху ИИ-поиска. Миллионы пользователей уже воспринимают ответы ChatGPT или Google AI Overview как авторитетный источник, не задумываясь о том, откуда модель взяла конкретный факт. Если достаточно одного блог-поста, чтобы повлиять на ответы крупнейших ИИ-систем по нишевой теме, это открывает двери для целенаправленных манипуляций — от маркетинговых до политических. SEO-оптимизация для поисковых систем существует десятилетия, но «оптимизация» контента под ИИ-модели — это качественно новый уровень влияния, потому что пользователь видит не список ссылок, а уверенный, безапелляционный ответ.

OpenAI и Google, разумеется, работают над решением. Обе компании инвестируют в системы верификации источников, ранжирования достоверности и так называемого «grounding» — привязки ответов модели к проверенным данным. Google, в частности, развивает механизмы перекрёстной проверки, при которых модель сопоставляет информацию из нескольких независимых источников, прежде чем включить её в ответ. OpenAI экспериментирует с прозрачностью цитирования, позволяя пользователям видеть, на какие именно источники опирается ответ. Но пока эти механизмы далеки от совершенства, особенно в нишевых темах, где количество доступных источников минимально.

Есть и более широкий контекст. Дискуссия о «взломе ИИ» разворачивается на фоне нарастающего общественного скептицизма по отношению к генеративным технологиям. Каждый такой заголовок подпитывает представление об ИИ как о ненадёжной, легко обманываемой игрушке. Но реальность сложнее. Те же самые системы ежедневно помогают миллионам людей находить информацию, писать код, анализировать данные и решать задачи, которые раньше требовали часов работы. Проблема доверия к источникам — это не приговор технологии, а вызов, который индустрия обязана решить, если хочет, чтобы ИИ-поиск стал полноценной заменой традиционным поисковикам.

В конечном счёте, история с экспериментом BBC — это не про то, что ИИ глуп или уязвим. Это про то, что мы находимся в переходном периоде, когда технология уже достаточно мощна, чтобы формировать общественное мнение, но ещё недостаточно зрела, чтобы делать это ответственно. Настоящий вопрос не в том, можно ли обмануть языковую модель блог-постом. Настоящий вопрос — кто несёт ответственность за достоверность ответов, которые сотни миллионов людей принимают на веру каждый день. И на этот вопрос ни OpenAI, ни Google пока не дали убедительного ответа.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…