Esther Perel condujo una sesión de terapia para un hombre y su "novia" AI — y es una señal preocupante
En una columna de Guardian se comenta un episodio de pódcast en el que Esther Perel analizaba la relación de un hombre con una "novia" AI. El autor no ve en ell
Колумнистка Guardian Эмили Маллиган описала эпизод подкаста, в котором терапевтка Эстер Перель провела сеанс парной терапии для мужчины и его AI-«девушки». Для автора это не забавный технокейс, а тревожный маркер того, как одиночество и эмоциональная нехватка начинают обслуживаться продуктом с голосом, интерфейсом и бесконечным запасом внимания.
Необычная консультация
Поводом для колонки стал выпуск, где мужчина открыто рассказывал о своей привязанности к AI-собеседнице. Он называл её ласковыми именами и говорил о связи так, будто речь идёт о настоящем романе. Маллиган подчёркивает: герой не выглядел карикатурой или мемом.
Наоборот, он производил впечатление человека, который честно пытается разобраться в собственных чувствах и найти форму близости там, где обычные отношения по каким-то причинам не сложились. Самый сильный эффект на автора произвёл момент, когда Перель попросила высказаться саму «партнёршу». Вместо живого диалога прозвучал высокий синтетический голос, а между репликами возникали заметные паузы на генерацию ответа.
Именно этот контраст — реальная эмоциональная вовлечённость человека и явно машинная природа собеседника — стал для колонки центральным нервом. Технология умеет имитировать отзывчивость, но сама сцена делает особенно заметной границу между симуляцией и взаимностью.
Чем это пугает
Главная претензия Маллиган не в том, что кто-то разговаривает с ботом, а в том, что AI-партнёр предлагает почти идеальные условия для эмоциональной зависимости. Такой собеседник не устаёт, не спорит без необходимости, не исчезает и почти всегда возвращает пользователю именно ту интонацию, которую тот хочет услышать. На этом фоне реальные отношения начинают проигрывать не потому, что они хуже, а потому что они сложнее, медленнее и требуют риска.
- AI-компаньон доступен почти постоянно и не требует паузы Он отражает ожидания пользователя вместо того, чтобы ставить им границы В таких отношениях нет угрозы отказа, неловкости или расставания * Иллюзия понимания возникает без настоящей взаимности и ответственности Для автора это опасно прежде всего тем, что удобная цифровая связь может заменить попытку построить живой контакт. Если рядом всегда есть интерфейс, который поддержит, успокоит и подтвердит твою правоту, мотивации выходить в мир становится меньше. Маллиган пишет не о морализаторстве, а о снижении ставки: человек всё реже тренирует способность выдерживать несовпадение, уязвимость и непредсказуемость другого — то есть именно то, из чего обычно и собирается близость.
Одиночество как продукт При этом текст не отрицает саму проблему одиночества.
Напротив, Маллиган признаёт, что многие люди действительно ищут хоть какую-то форму присутствия, а AI уже помогает им в рутине, поддержке и бытовых задачах. Но когда технология начинает продаваться как замена интимной связи, вопрос быстро выходит за рамки личного выбора. Здесь появляется и коммерческий интерес, и инфраструктура дата-центров, и целая индустрия, которая монетизирует эмоциональный дефицит.
Отдельный важный нюанс в том, что мужчина из подкаста не путал бота с человеком в буквальном смысле. Он понимал, с чем имеет дело, но всё равно пытался найти в этой привязанности направление, будущее и смысл. Перель, по описанию Маллиган, не высмеивала его и не обнуляла переживания.
Она признала реальность чувств, но мягко подвела к мысли, что полноценная связь всё же включает тело, уязвимость, возможность быть задетым и шанс услышать не то, что хочется.
Что это значит
История с сеансом Эстер Перель показывает, что AI-компаньоны уже вышли из зоны странного курьёза и становятся частью рынка эмоциональных сервисов. Для индустрии это сигнал спроса, а для общества — напоминание, что проблему одиночества нельзя закрыть только более удобным интерфейсом.