Guardian→ оригинал

أجرت إيستر بيريل جلسة علاج لرجل و"صديقته" AI — وهذا مؤشر مقلق

تناقش مقالة في Guardian حلقة من بودكاست كانت فيها إيستر بيريل تحلل علاقة رجل مع "صديقته" AI. ولا يرى كاتب النص في ذلك مجرد طرافة، بل مؤشرًا: صار من الأسهل على ا

◐ Слушать статью

Колумнистка Guardian Эмили Маллиган описала эпизод подкаста, в котором терапевтка Эстер Перель провела сеанс парной терапии для мужчины и его AI-«девушки». Для автора это не забавный технокейс, а тревожный маркер того, как одиночество и эмоциональная нехватка начинают обслуживаться продуктом с голосом, интерфейсом и бесконечным запасом внимания.

Необычная консультация

Поводом для колонки стал выпуск, где мужчина открыто рассказывал о своей привязанности к AI-собеседнице. Он называл её ласковыми именами и говорил о связи так, будто речь идёт о настоящем романе. Маллиган подчёркивает: герой не выглядел карикатурой или мемом.

Наоборот, он производил впечатление человека, который честно пытается разобраться в собственных чувствах и найти форму близости там, где обычные отношения по каким-то причинам не сложились. Самый сильный эффект на автора произвёл момент, когда Перель попросила высказаться саму «партнёршу». Вместо живого диалога прозвучал высокий синтетический голос, а между репликами возникали заметные паузы на генерацию ответа.

Именно этот контраст — реальная эмоциональная вовлечённость человека и явно машинная природа собеседника — стал для колонки центральным нервом. Технология умеет имитировать отзывчивость, но сама сцена делает особенно заметной границу между симуляцией и взаимностью.

Чем это пугает

Главная претензия Маллиган не в том, что кто-то разговаривает с ботом, а в том, что AI-партнёр предлагает почти идеальные условия для эмоциональной зависимости. Такой собеседник не устаёт, не спорит без необходимости, не исчезает и почти всегда возвращает пользователю именно ту интонацию, которую тот хочет услышать. На этом фоне реальные отношения начинают проигрывать не потому, что они хуже, а потому что они сложнее, медленнее и требуют риска.

  • AI-компаньон доступен почти постоянно и не требует паузы Он отражает ожидания пользователя вместо того, чтобы ставить им границы В таких отношениях нет угрозы отказа, неловкости или расставания * Иллюзия понимания возникает без настоящей взаимности и ответственности Для автора это опасно прежде всего тем, что удобная цифровая связь может заменить попытку построить живой контакт. Если рядом всегда есть интерфейс, который поддержит, успокоит и подтвердит твою правоту, мотивации выходить в мир становится меньше. Маллиган пишет не о морализаторстве, а о снижении ставки: человек всё реже тренирует способность выдерживать несовпадение, уязвимость и непредсказуемость другого — то есть именно то, из чего обычно и собирается близость.

Одиночество как продукт При этом текст не отрицает саму проблему одиночества.

Напротив, Маллиган признаёт, что многие люди действительно ищут хоть какую-то форму присутствия, а AI уже помогает им в рутине, поддержке и бытовых задачах. Но когда технология начинает продаваться как замена интимной связи, вопрос быстро выходит за рамки личного выбора. Здесь появляется и коммерческий интерес, и инфраструктура дата-центров, и целая индустрия, которая монетизирует эмоциональный дефицит.

Отдельный важный нюанс в том, что мужчина из подкаста не путал бота с человеком в буквальном смысле. Он понимал, с чем имеет дело, но всё равно пытался найти в этой привязанности направление, будущее и смысл. Перель, по описанию Маллиган, не высмеивала его и не обнуляла переживания.

Она признала реальность чувств, но мягко подвела к мысли, что полноценная связь всё же включает тело, уязвимость, возможность быть задетым и шанс услышать не то, что хочется.

Что это значит

История с сеансом Эстер Перель показывает, что AI-компаньоны уже вышли из зоны странного курьёза и становятся частью рынка эмоциональных сервисов. Для индустрии это сигнал спроса, а для общества — напоминание, что проблему одиночества нельзя закрыть только более удобным интерфейсом.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…