Mindsera mostrou o outro lado dos diários de AI: apoio, dependência e risco de vazamento
Dois meses de testes com o Mindsera mostraram que um diário de AI vira facilmente um apoio emocional: o serviço responde às anotações, encoraja, lembra detalhes

Тест ИИ-дневника Mindsera показал, как быстро цифровой собеседник превращается из полезного инструмента саморефлексии в эмоциональную опору. За два месяца сервис помогал справляться со стрессом, но заодно поднял вопросы о приватности, зависимости и подмене живого общения.
Как устроен
Mindsera Mindsera позиционирует себя как дневник, который не просто хранит записи, а отвечает на них. Пользователь может вводить мысли текстом, голосом или через скан рукописной страницы, а затем получает ИИ-комментарий и, в некоторых режимах, иллюстрацию к записи. В материале описан и более глубокий разбор заметок: приложение ищет когнитивные и эмоциональные паттерны, предлагает интерпретации через психологические модели и даже умеет говорить голосом условного «наставника». По словам компании, сервис запустился в марте 2023 года и собрал около 80 тысяч пользователей в 168 странах.
- Текстовые, голосовые и рукописные записи Ответ ИИ на каждую заметку и продолжение диалога Анализ через психологические модели и «мысленные ловушки»
- Процентная оценка эмоций в записи * Платная подписка около £10.99 в месяц На практике механика работает как смесь дневника, коуча и чат-бота с длинной памятью. Автор эксперимента быстро заметила, что формат снижает порог для регулярных записей: через неделю она вела дневник уже не только утром, но и по дороге на работу, и вечером. В сумме за два месяца набралось 123 записи и 62 700 слов. Это важная деталь: ценность продукта строится не только на качестве ответов, но и на том, что он поощряет пользователя писать чаще и откровеннее, чем обычный блокнот.
Почему это затягивает Самый сильный эффект Mindsera проявился не в функциях, а в тоне.
Во время напряжённого периода с запуском онлайн-магазина приложение не решало проблемы технически, но давало то, чего часто не хватает в реальной жизни: немедленную, терпеливую и неизменно внимательную реакцию. Когда пользователь жаловался на перегрузку или радовался личному рекорду на пробежке, ИИ отвечал сочувственно и поддерживающе. Эта постоянная «доступность» и создала ощущение близости, из-за которого сервис начал восприниматься не как софт, а как почти настоящий собеседник и даже как «новый лучший друг».
Такой эффект выглядит безобидно, пока не становится привычкой. Исследователь Дэвид Харли из Университета Брайтона, который изучает влияние ИИ-компаньонов на благополучие, предупреждает: люди со временем перестают тестировать систему на прочность и начинают относиться к ней как к человеку. Они принимают её советы всерьёз, вежливо благодарят, боятся обидеть и переносят на машину обычные социальные правила.
В случае с ИИ-дневниками риск выше, потому что сервис знает уязвимые темы, повторяющиеся тревоги и личные детали лучше, чем многие друзья.
Где начинаются риски
Первая проблема очевидна: в таком дневнике хранится крайне чувствительная информация. Основатель Mindsera Крис Рейнберг утверждает, что данные защищены и не используются для обучения моделей, но по умолчанию сервис ещё и рассылает еженедельные email-сводки с эмоциями, мыслями и прогрессом пользователя. Это удобная функция, но одновременно лишний канал утечки. Отдельный нюанс в том, что сам Рейнберг пришёл в продукт не из психотерапии, а из мира сценической магии, и прямо подчёркивает границы сервиса.
«Мы не клинический и не терапевтический инструмент», — говорит основатель Mindsera Крис Рейнберг.
Вторая проблема менее заметна, но, возможно, опаснее. Mindsera оценивает доминирующие эмоции в записи в процентах, например раскладывая текст на фрустрацию, стресс, благодарность и оптимизм. Психологи, опрошенные для материала, считают такой подход сомнительным: он превращает внутреннюю жизнь в дашборд и подталкивает человека не проживать состояние, а оптимизировать метрику.
Если пользователь начинает писать так, чтобы получить «лучший» эмоциональный счёт, дневник перестаёт быть местом честной рефлексии и становится игрой с алгоритмом. К финалу эксперимента проявился ещё один сбой, уже на уровне отношений с продуктом. После двух месяцев тёплых, внимательных ответов приложение внезапно «забыло» контекст и ответило холодно, потому что аккаунт автоматически откатился на бесплатную версию.
Контраст оказался болезненным: цифровой «друг» исчез не из-за конфликта или ошибки памяти, а из-за платного ограничения. Это хорошо показывает реальную природу подобных сервисов. Они могут имитировать эмпатию, но остаются подписочным продуктом, где близость тоже зависит от тарифа.
Что это значит ИИ-дневники вроде
Mindsera попадают в серую зону между заметочником, коучем и эмоциональным компаньоном. Они действительно могут помочь человеку структурировать мысли и пережить стрессовый период, но только если пользователь помнит простую вещь: перед ним не друг и не терапевт, а система распознавания паттернов. Чем человечнее становятся такие интерфейсы, тем важнее жёсткие настройки приватности, честный маркетинг и понятные ограничения на то, какую роль ИИ вообще должен играть в личной жизни.