TNW→ оригинал

لماذا تفوّت سردية «من السهل خداع AI» النقطة الأهم

نشرت BBC مادة عن كيف بدأ منشور مدونة جديد في موضوع متخصص يُستشهد به من قبل ChatGPT وGoogle AI خلال دقائق. ووصف الصحفيون ذلك بأنه «اختراق»، لكن TNW تعترض: سردية

لماذا تفوّت سردية «من السهل خداع AI» النقطة الأهم
Источник: TNW. Коллаж: Hamidun News.
◐ Слушать статью

В конце февраля 2026 года BBC опубликовала громкий материал о том, как генеративные ИИ-системы можно «взломать» за считанные минуты. Журналисты продемонстрировали простой эксперимент: они разместили блог-пост, претендующий на экспертизу в узкоспециализированной теме, и вскоре обнаружили, что ChatGPT от OpenAI и поисковые ИИ-ответы Google начали воспроизводить информацию из этой публикации. Заголовки получились эффектными, а история разлетелась по сети. Но издание The Next Web решило посмотреть на ситуацию с другой стороны — и задало неудобный вопрос: а что, если весь этот нарратив про «ИИ легко обмануть» попросту мимо цели?

Чтобы понять суть спора, нужно разобраться в механике. Современные большие языковые модели, такие как GPT-4o или Gemini, не хранят в себе фиксированную базу знаний вроде энциклопедии. Они обучаются на колоссальных массивах текстов из интернета, а в случае с поисковыми функциями — дополнительно обращаются к свежему веб-контенту в реальном времени. Когда модель с подключённым поиском получает вопрос по редкой теме, она ищет релевантные источники, и если единственный доступный материал — тот самый свежий блог-пост, именно он и становится основой ответа. Это не взлом в классическом понимании. Это следствие архитектурного решения: модель доверяет тому, что находит в сети, примерно так же, как это делает поисковая система.

Именно здесь кроется ключевое расхождение между сенсационным нарративом и реальностью. Называть это «хакингом» — значит подразумевать, что кто-то обошёл защиту системы, нашёл уязвимость в коде или эксплуатировал технический баг. На деле же произошло нечто куда более банальное и одновременно более тревожное: ИИ-система сделала ровно то, для чего была спроектирована — нашла информацию в интернете и пересказала её пользователю. Проблема не в том, что систему обманули, а в том, что у неё нет надёжного механизма отделения достоверных источников от недостоверных. Это не баг, который можно закрыть патчем. Это фундаментальное свойство технологии в её текущем состоянии.

Впрочем, было бы ошибкой отмахнуться от эксперимента BBC как от несущественного. Он подсвечивает реальную и серьёзную проблему — проблему информационного доверия в эпоху ИИ-поиска. Миллионы пользователей уже воспринимают ответы ChatGPT или Google AI Overview как авторитетный источник, не задумываясь о том, откуда модель взяла конкретный факт. Если достаточно одного блог-поста, чтобы повлиять на ответы крупнейших ИИ-систем по нишевой теме, это открывает двери для целенаправленных манипуляций — от маркетинговых до политических. SEO-оптимизация для поисковых систем существует десятилетия, но «оптимизация» контента под ИИ-модели — это качественно новый уровень влияния, потому что пользователь видит не список ссылок, а уверенный, безапелляционный ответ.

OpenAI и Google, разумеется, работают над решением. Обе компании инвестируют в системы верификации источников, ранжирования достоверности и так называемого «grounding» — привязки ответов модели к проверенным данным. Google, в частности, развивает механизмы перекрёстной проверки, при которых модель сопоставляет информацию из нескольких независимых источников, прежде чем включить её в ответ. OpenAI экспериментирует с прозрачностью цитирования, позволяя пользователям видеть, на какие именно источники опирается ответ. Но пока эти механизмы далеки от совершенства, особенно в нишевых темах, где количество доступных источников минимально.

Есть и более широкий контекст. Дискуссия о «взломе ИИ» разворачивается на фоне нарастающего общественного скептицизма по отношению к генеративным технологиям. Каждый такой заголовок подпитывает представление об ИИ как о ненадёжной, легко обманываемой игрушке. Но реальность сложнее. Те же самые системы ежедневно помогают миллионам людей находить информацию, писать код, анализировать данные и решать задачи, которые раньше требовали часов работы. Проблема доверия к источникам — это не приговор технологии, а вызов, который индустрия обязана решить, если хочет, чтобы ИИ-поиск стал полноценной заменой традиционным поисковикам.

В конечном счёте, история с экспериментом BBC — это не про то, что ИИ глуп или уязвим. Это про то, что мы находимся в переходном периоде, когда технология уже достаточно мощна, чтобы формировать общественное мнение, но ещё недостаточно зрела, чтобы делать это ответственно. Настоящий вопрос не в том, можно ли обмануть языковую модель блог-постом. Настоящий вопрос — кто несёт ответственность за достоверность ответов, которые сотни миллионов людей принимают на веру каждый день. И на этот вопрос ни OpenAI, ни Google пока не дали убедительного ответа.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…