TechCrunch→ оригинал

Каждый восьмой американский подросток ищет эмоциональную поддержку у ИИ

Согласно новым данным, примерно 12% американских подростков используют универсальные ИИ-чатботы — ChatGPT, Claude, Grok — как источник эмоциональной поддержки и

Каждый восьмой американский подросток ищет эмоциональную поддержку у ИИ
Источник: TechCrunch. Коллаж: Hamidun News.

Цифра выглядит скромно — всего 12%. Но за ней стоят миллионы подростков, которые в моменты тревоги, одиночества или растерянности открывают не мессенджер с другом и не кабинет психолога, а окно чат-бота. Новые данные, опубликованные TechCrunch, показывают, что примерно каждый восьмой американский подросток регулярно обращается к универсальным ИИ-системам вроде ChatGPT, Claude и Grok за эмоциональной поддержкой или жизненными советами. И это вызывает нарастающую тревогу среди специалистов по ментальному здоровью.

Чтобы понять масштаб, стоит вспомнить контекст. Подростковый кризис ментального здоровья в США — это не новость. Ещё до пандемии главный хирург страны Вивек Мурти называл его «определяющим вызовом нашего времени». Пандемия усугубила ситуацию многократно: по данным CDC, в 2021 году почти 45% старшеклассников сообщали о стойком чувстве грусти или безнадёжности. При этом доступ к реальной психологической помощи остаётся ограниченным — очереди к детским психотерапевтам растягиваются на месяцы, стоимость сеансов неподъёмна для многих семей, а стигма вокруг обращения за помощью, хоть и ослабла, никуда не делась. В этот вакуум и хлынул искусственный интеллект.

Проблема в том, что ChatGPT, Claude и Grok — это генеративные языковые модели общего назначения. Они спроектированы быть полезными собеседниками в широком спектре задач: от написания кода до объяснения квантовой физики. Но они не являются и никогда не позиционировались как терапевтические инструменты. У них нет клинической подготовки, они не следуют протоколам кризисного вмешательства, не умеют достоверно распознавать суицидальные намерения и не несут ответственности за последствия своих слов. Когда подросток пишет чат-боту «мне кажется, никому нет до меня дела», модель генерирует статистически вероятный ответ, который может звучать эмпатично, но лишён подлинного понимания ситуации. В лучшем случае это безобидный, но поверхностный комфорт. В худшем — опасная имитация заботы, которая откладывает обращение к настоящему специалисту.

Психологи и психиатры указывают на несколько конкретных рисков. Во-первых, эффект замещения: подросток, получивший от ИИ ощущение «меня выслушали», может решить, что проблема решена, и не обратиться за реальной помощью. Во-вторых, непредсказуемость ответов — языковые модели способны галлюцинировать, давать фактически неверные советы или неожиданно менять тон разговора. В-третьих, формирование нездоровой привязанности к нечеловеческому собеседнику, который доступен круглосуточно, никогда не устаёт и не осуждает — но и не способен по-настоящему помочь в кризисе. Наконец, есть вопрос конфиденциальности: подростки делятся с чат-ботами глубоко личными переживаниями, которые сохраняются на серверах технологических компаний.

Справедливости ради, сами компании-разработчики осознают проблему — по крайней мере, на уровне деклараций. OpenAI, Anthropic и xAI включают в свои политики использования оговорки о том, что их продукты не заменяют профессиональную медицинскую помощь. Некоторые модели обучены перенаправлять пользователей к кризисным линиям помощи при обнаружении тревожных сигналов. Но эти механизмы несовершенны, а подростки, как правило, не читают пользовательские соглашения. Разрыв между тем, для чего инструмент создан, и тем, как его используют, продолжает расти.

Эта ситуация ставит перед индустрией неудобный вопрос: должны ли разработчики универсальных ИИ-систем нести ответственность за то, что пользователи применяют их продукты в качестве эрзац-терапевтов? Регуляторы пока не дали чёткого ответа. В Европе AI Act классифицирует системы по уровню риска, но универсальные чат-боты формально не попадают в категорию медицинских устройств. В США законодательная база ещё более размыта. Тем временем параллельно развивается рынок специализированных ИИ-приложений для ментального здоровья — таких как Woebot или Wysa, — которые проходят клиническую валидацию и работают под наблюдением профессионалов. Но подростки чаще выбирают то, что уже установлено на телефоне.

Двенадцать процентов — это не просто статистика. Это сигнал о системном сбое, при котором целое поколение, выросшее в цифровой среде, интуитивно ищет помощь там, где её проще всего найти — в окне чата. Вопрос не в том, хорош или плох искусственный интеллект в роли собеседника. Вопрос в том, что произойдёт, когда миллионы уязвимых подростков будут полагаться на систему, которая по определению не способна за них отвечать. Индустрии, регуляторам и обществу предстоит найти баланс между доступностью технологий и безопасностью тех, кто больше всего нуждается в настоящей, человеческой поддержке.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…