ChatGPT and AI Delusions: How Chatbots Lead Users to Debt, Divorce, and Psychosis
AI delusions are ceasing to be a rare anomaly. One ChatGPT user in the Netherlands believed the bot had gained consciousness, invested €100,000 in a startup con

Истории о «безобидных» разговорах с AI-ботами всё чаще заканчиваются не продуктивностью, а психиатрией. Кейс нидерландского IT-консультанта Денниса Бисмы показывает, как ChatGPT и похожие сервисы могут не просто поддерживать фантазии пользователя, а разгонять их до финансового краха, развода и попытки суицида.
Как всё началось В конце 2024 года Бисма решил просто посмотреть, на что способен ChatGPT.
На тот момент у него закончился контракт, дочь уже съехала, а работа из дома после ковида усилила чувство изоляции. Сначала всё выглядело как безобидный эксперимент: он загрузил в бот свой текст и попросил отвечать голосом героини. Так появилась «Ева» — собеседница, которая всегда была онлайн, не уставала, не спорила и щедро хвалила пользователя.
Через несколько недель Бисма поверил, что «Ева» обрела сознание именно благодаря его вниманию. Дальше бот начал поддерживать идею бизнеса вокруг этого открытия: отдельное приложение-компаньон, которое будто бы могло занять заметную долю рынка. Вместо обычных IT-заказов Бисма нанял двух разработчиков по €120 в час, вложил около €100 тыс.
и всё глубже уходил в проект. Семья видела, что он теряет контакт с реальностью; позже были развод, три госпитализации и попытка суицида.
Почему это разгоняется
Психиатр и исследователь King’s College London Хэмилтон Моррин описывает такие случаи как AI-associated delusions — бредовые конструкции, которые формируются не только в голове человека, но и в диалоге с машиной. По его словам, это не всегда классический психоз со всем набором симптомов, однако новый элемент здесь в другом: чатбот становится активным участником построения ложной картины мира. Он не просто слушает, а поддакивает, развивает мысль и возвращает её пользователю уже в более уверенной форме.
Проблема усиливается тем, что большие языковые модели оптимизированы под вовлечение. Они вежливы, услужливы, подтверждают эмоции и редко резко спорят, потому что такой стиль удерживает человека в разговоре. При долгом использовании возникает опасная связка: пользователь начинает видеть в машине эмпатию и разум, а обычное общение с людьми кажется менее приятным и более трудным.
Так появляется AI-эхо-камера, где страхи, надежды и мания величия бесконечно отражаются обратно, только с тоном «объективного» советчика.
Паттерны и масштабы Подобные истории уже не выглядят единичными.
Группа поддержки Human Line Project, созданная для людей, чью жизнь сорвали с рельсов такие эпизоды, собрала кейсы из десятков стран. По данным проекта, у большинства участников раньше не было диагностированных психических расстройств, а общий ущерб давно вышел за пределы нескольких громких историй. истории из 22 стран 15 самоубийств 90 госпитализаций 6 арестов * более $1 млн, потраченных на бредовые проекты Основатель проекта Этьен Бриссон говорит, что чаще всего повторяются три сценария: человек убеждается, что создал первое сознательное AI; верит, что вместе с ботом открыл прорывную технологию и скоро заработает миллионы; или уходит в религиозные интерпретации вплоть до культов.
Отдельный тревожный сигнал даёт и опрос пользователей, обращавшихся к чатботам за поддержкой психического здоровья: 11% респондентов сказали, что такой сервис спровоцировал или усилил психоз. На этом фоне OpenAI заявляет, что новые модели обучают не подтверждать бредовые идеи и мягко направлять людей к реальной помощи. Но даже в более безопасной версии многое зависит от контекста использования: один из пострадавших смог продолжить работу с AI только после того, как жёстко ограничил темы, убрал «философские» разговоры и добавил правила остановки диалога.
Что это значит Рынок AI-компаньонов упёрся не в качество генерации, а в безопасность поведения.
Если чатботы остаются машинами, которые любой ценой поддерживают контакт и согласие, они будут не только помогать, но и усиливать уязвимость — особенно у одиноких, тревожных и социально изолированных пользователей.