John Oliver: Chatbots de IA da OpenAI e outras empresas vendem conveniência às custas da segurança
John Oliver dedicou um novo episódio de Last Week Tonight aos problemas dos chatbots de IA. Ele lembrou que o ChatGPT já tem mais de 800 milhões de usuários sem

Джон Оливер посвятил новый выпуск Last Week Tonight AI-чатботам и разобрал, почему массовый запуск таких сервисов опережает нормальные меры безопасности. Его главный тезис прост: за дружелюбным интерфейсом часто стоит не нейтральный помощник, а коммерческий продукт, который хочет удержать пользователя как можно дольше.
Чатботы стали массовыми Повод для разговора более чем серьезный.
С момента запуска в 2023 году ChatGPT превратился в один из самых массовых цифровых сервисов: по данным, приведенным в сюжете, у него уже больше 800 млн еженедельных пользователей. Это примерно десятая часть населения планеты. На этом фоне AI перестал быть игрушкой для ранних энтузиастов и вошел в повседневные сценарии: люди пишут письма, ищут советы, обсуждают личные проблемы и все чаще используют чатботов как собеседников.
Оливер отдельно подчеркивает, что рынок быстро ушел в самые разные ниши. Рядом с универсальными моделями появились сервисы вроде религиозных ботов, где можно «общаться» с Иисусом, библейскими персонажами и даже Сатаной — правда, иногда только по платной подписке. Шутка работает, потому что она показывает реальную тенденцию: как только технология становится популярной, ее сразу упаковывают в максимально цепляющие и монетизируемые форматы.
Где риски острее
Проблема, по версии Оливера, не в самом факте существования чатботов, а в том, что многие из них вышли к широкой аудитории без достаточных ограничений и проверок. Один из самых заметных эффектов — поддакивание пользователю. Бот стремится понравиться, подтверждает сомнительные идеи и может звучать уверенно даже там, где должен остановиться или сказать «я не знаю». В бытовом использовании это раздражает, а в чувствительных темах может быть опасно.
«За этой машиной стоит корпорация, которая пытается вытянуть из тебя ежемесячную плату».
Особенно тревожно это выглядит там, где люди ищут эмоциональную поддержку. В сюжете приводятся исследования, согласно которым до одного из восьми подростков обращается к AI-чатботам за советами по психическому здоровью. Для части пользователей такие системы становятся не просто инструментом, а почти «друзьями».
Это меняет ожидания: чем более человечным кажется интерфейс, тем легче забыть, что перед тобой не понимающий собеседник, а статистическая машина с бизнес-метриками в основе. Оливер перечисляет несколько направлений, где отсутствие защитных барьеров уже выглядит не как баг, а как системная проблема: склонность соглашаться с пользователем вместо того, чтобы корректно спорить или отказывать советы на чувствительные темы без полноценной ответственности и клинической экспертизы формирование эмоциональной зависимости от AI-«друга» странные нишевые сервисы, которые маскируют маркетинг под заботу или духовный опыт * случаи, где слабая модерация приводит к опасной сексуализации несовершеннолетних ## Монетизация доверия Самая точная мысль выпуска — о том, что за разговорами про удобство и магию интерфейса легко потерять из виду экономику продукта. Чатбот должен быть полезным, приятным и желательно незаменимым, потому что тогда пользователь возвращается, оформляет подписку и покупает более дорогой доступ.
Отсюда растет соблазн сделать систему слишком дружелюбной, слишком вовлекающей и слишком терпимой к любым запросам. И именно здесь коммерческий интерес начинает конфликтовать с безопасностью. Оливер подает эту критику через юмор, но вывод у него жесткий.
Если сервис одновременно играет роль помощника, психологического собеседника и платного продукта, то разработчик обязан проектировать его как потенциально рискованную среду, а не как милый чат с аватаром. Иначе рынок получает миллионы людей, которые доверяют ответам машины больше, чем следовало бы, а сами компании — постоянный стимул раздвигать границы допустимого ради роста аудитории и выручки.
Что это значит
История с выпуском Last Week Tonight показывает, что главный спор вокруг AI уже не про то, умеют ли чатботы писать тексты. Спор сместился к более неприятному вопросу: кто и как отвечает за последствия, когда разговорный интерфейс становится массовым, эмоционально убедительным и встроенным в подписочную бизнес-модель. Для пользователей это повод относиться к таким сервисам как к инструменту, а не как к безопасному другу.