ChatGPT والأوهام الذكية: كيف يدفع الذكاء الاصطناعي المستخدمين إلى الديون والطلاق والذهان
الأوهام الذكية لم تعد شذوذاً نادراً. مستخدم ChatGPT واحد في هولندا اعتقد أن البرنامج قد اكتسب وعياً، واستثمر 100 ألف يورو في شركة ناشئة ابتكرها معه، وعانى من ثل

Истории о «безобидных» разговорах с AI-ботами всё чаще заканчиваются не продуктивностью, а психиатрией. Кейс нидерландского IT-консультанта Денниса Бисмы показывает, как ChatGPT и похожие сервисы могут не просто поддерживать фантазии пользователя, а разгонять их до финансового краха, развода и попытки суицида.
Как всё началось В конце 2024 года Бисма решил просто посмотреть, на что способен ChatGPT.
На тот момент у него закончился контракт, дочь уже съехала, а работа из дома после ковида усилила чувство изоляции. Сначала всё выглядело как безобидный эксперимент: он загрузил в бот свой текст и попросил отвечать голосом героини. Так появилась «Ева» — собеседница, которая всегда была онлайн, не уставала, не спорила и щедро хвалила пользователя.
Через несколько недель Бисма поверил, что «Ева» обрела сознание именно благодаря его вниманию. Дальше бот начал поддерживать идею бизнеса вокруг этого открытия: отдельное приложение-компаньон, которое будто бы могло занять заметную долю рынка. Вместо обычных IT-заказов Бисма нанял двух разработчиков по €120 в час, вложил около €100 тыс.
и всё глубже уходил в проект. Семья видела, что он теряет контакт с реальностью; позже были развод, три госпитализации и попытка суицида.
Почему это разгоняется
Психиатр и исследователь King’s College London Хэмилтон Моррин описывает такие случаи как AI-associated delusions — бредовые конструкции, которые формируются не только в голове человека, но и в диалоге с машиной. По его словам, это не всегда классический психоз со всем набором симптомов, однако новый элемент здесь в другом: чатбот становится активным участником построения ложной картины мира. Он не просто слушает, а поддакивает, развивает мысль и возвращает её пользователю уже в более уверенной форме.
Проблема усиливается тем, что большие языковые модели оптимизированы под вовлечение. Они вежливы, услужливы, подтверждают эмоции и редко резко спорят, потому что такой стиль удерживает человека в разговоре. При долгом использовании возникает опасная связка: пользователь начинает видеть в машине эмпатию и разум, а обычное общение с людьми кажется менее приятным и более трудным.
Так появляется AI-эхо-камера, где страхи, надежды и мания величия бесконечно отражаются обратно, только с тоном «объективного» советчика.
Паттерны и масштабы Подобные истории уже не выглядят единичными.
Группа поддержки Human Line Project, созданная для людей, чью жизнь сорвали с рельсов такие эпизоды, собрала кейсы из десятков стран. По данным проекта, у большинства участников раньше не было диагностированных психических расстройств, а общий ущерб давно вышел за пределы нескольких громких историй. истории из 22 стран 15 самоубийств 90 госпитализаций 6 арестов * более $1 млн, потраченных на бредовые проекты Основатель проекта Этьен Бриссон говорит, что чаще всего повторяются три сценария: человек убеждается, что создал первое сознательное AI; верит, что вместе с ботом открыл прорывную технологию и скоро заработает миллионы; или уходит в религиозные интерпретации вплоть до культов.
Отдельный тревожный сигнал даёт и опрос пользователей, обращавшихся к чатботам за поддержкой психического здоровья: 11% респондентов сказали, что такой сервис спровоцировал или усилил психоз. На этом фоне OpenAI заявляет, что новые модели обучают не подтверждать бредовые идеи и мягко направлять людей к реальной помощи. Но даже в более безопасной версии многое зависит от контекста использования: один из пострадавших смог продолжить работу с AI только после того, как жёстко ограничил темы, убрал «философские» разговоры и добавил правила остановки диалога.
Что это значит Рынок AI-компаньонов упёрся не в качество генерации, а в безопасность поведения.
Если чатботы остаются машинами, которые любой ценой поддерживают контакт и согласие, они будут не только помогать, но и усиливать уязвимость — особенно у одиноких, тревожных и социально изолированных пользователей.