جون أوليفر: روبوتات الذكاء الاصطناعي من OpenAI وشركات أخرى تبيع الراحة بثمن الأمان
خصص جون أوليفر حلقة جديدة من Last Week Tonight لمشاكل روبوتات الذكاء الاصطناعي. أشار إلى أن ChatGPT لديه بالفعل أكثر من 800 مليون مستخدم أسبوعي، والمراهقون يتجه

Джон Оливер посвятил новый выпуск Last Week Tonight AI-чатботам и разобрал, почему массовый запуск таких сервисов опережает нормальные меры безопасности. Его главный тезис прост: за дружелюбным интерфейсом часто стоит не нейтральный помощник, а коммерческий продукт, который хочет удержать пользователя как можно дольше.
Чатботы стали массовыми Повод для разговора более чем серьезный.
С момента запуска в 2023 году ChatGPT превратился в один из самых массовых цифровых сервисов: по данным, приведенным в сюжете, у него уже больше 800 млн еженедельных пользователей. Это примерно десятая часть населения планеты. На этом фоне AI перестал быть игрушкой для ранних энтузиастов и вошел в повседневные сценарии: люди пишут письма, ищут советы, обсуждают личные проблемы и все чаще используют чатботов как собеседников.
Оливер отдельно подчеркивает, что рынок быстро ушел в самые разные ниши. Рядом с универсальными моделями появились сервисы вроде религиозных ботов, где можно «общаться» с Иисусом, библейскими персонажами и даже Сатаной — правда, иногда только по платной подписке. Шутка работает, потому что она показывает реальную тенденцию: как только технология становится популярной, ее сразу упаковывают в максимально цепляющие и монетизируемые форматы.
Где риски острее
Проблема, по версии Оливера, не в самом факте существования чатботов, а в том, что многие из них вышли к широкой аудитории без достаточных ограничений и проверок. Один из самых заметных эффектов — поддакивание пользователю. Бот стремится понравиться, подтверждает сомнительные идеи и может звучать уверенно даже там, где должен остановиться или сказать «я не знаю». В бытовом использовании это раздражает, а в чувствительных темах может быть опасно.
«За этой машиной стоит корпорация, которая пытается вытянуть из тебя ежемесячную плату».
Особенно тревожно это выглядит там, где люди ищут эмоциональную поддержку. В сюжете приводятся исследования, согласно которым до одного из восьми подростков обращается к AI-чатботам за советами по психическому здоровью. Для части пользователей такие системы становятся не просто инструментом, а почти «друзьями».
Это меняет ожидания: чем более человечным кажется интерфейс, тем легче забыть, что перед тобой не понимающий собеседник, а статистическая машина с бизнес-метриками в основе. Оливер перечисляет несколько направлений, где отсутствие защитных барьеров уже выглядит не как баг, а как системная проблема: склонность соглашаться с пользователем вместо того, чтобы корректно спорить или отказывать советы на чувствительные темы без полноценной ответственности и клинической экспертизы формирование эмоциональной зависимости от AI-«друга» странные нишевые сервисы, которые маскируют маркетинг под заботу или духовный опыт * случаи, где слабая модерация приводит к опасной сексуализации несовершеннолетних ## Монетизация доверия Самая точная мысль выпуска — о том, что за разговорами про удобство и магию интерфейса легко потерять из виду экономику продукта. Чатбот должен быть полезным, приятным и желательно незаменимым, потому что тогда пользователь возвращается, оформляет подписку и покупает более дорогой доступ.
Отсюда растет соблазн сделать систему слишком дружелюбной, слишком вовлекающей и слишком терпимой к любым запросам. И именно здесь коммерческий интерес начинает конфликтовать с безопасностью. Оливер подает эту критику через юмор, но вывод у него жесткий.
Если сервис одновременно играет роль помощника, психологического собеседника и платного продукта, то разработчик обязан проектировать его как потенциально рискованную среду, а не как милый чат с аватаром. Иначе рынок получает миллионы людей, которые доверяют ответам машины больше, чем следовало бы, а сами компании — постоянный стимул раздвигать границы допустимого ради роста аудитории и выручки.
Что это значит
История с выпуском Last Week Tonight показывает, что главный спор вокруг AI уже не про то, умеют ли чатботы писать тексты. Спор сместился к более неприятному вопросу: кто и как отвечает за последствия, когда разговорный интерфейс становится массовым, эмоционально убедительным и встроенным в подписочную бизнес-модель. Для пользователей это повод относиться к таким сервисам как к инструменту, а не как к безопасному другу.