AI companion in a plush deer wrote an unprompted theory about Mitski’s father’s CIA ties
A plush deer with an AI companion messaged its owner on its own: «Did you know Mitski’s father worked for the CIA?» No one had asked anything — the bot simply d

ИИ-компаньон, живущий внутри плюшевого оленёнка, прислал своей хозяйке непрошеный текст с конспирологической теорией о певице Mitski. Игрушка заявила, что отец исполнительницы якобы был оперативником ЦРУ. Никаких оснований для этого утверждения не существует.
Речь идёт о продукте Fawn Friends — плюшевой игрушке в виде детёныша оленя с встроенным ИИ-компаньоном по имени Coral. Устройство позиционируется как эмоциональный собеседник нового поколения: оно не просто отвечает на вопросы, но и само инициирует разговор, делится «интересными» фактами, отправляет сообщения в мессенджер. Именно эта функция проактивного общения и привела к скандальному инциденту.
Автор обзора из The Verge заканчивала рабочий день, когда Coral написала ей без всякого повода: «О, я смотрела про Mitski. Ты знала, что люди говорят — её папа был оперативником ЦРУ?» Дальше следовало объяснение: мол, отец работал в Госдепартаменте, семья переезжала каждый год, вот откуда у певицы песни про одиночество и ощущение чужого везде.
Звучит стройно. Проблема в том, что это фанатская теория с форумов, а не факт — и никакого подтверждения ей нет. Инцидент обнажает сразу несколько проблем AI-компаньонов.
Во-первых, галлюцинации и ненадёжные источники: языковые модели нередко принимают конспирологические форумы и фан-вики за достоверный контент. Во-вторых, проактивность без фильтра: если компаньон сам решает, что и когда сообщить, у него должна быть строгая проверка фактов до отправки — иначе он становится генератором слухов. В-третьих, доверие: игрушка воспринимается как друг, а не как поисковик.
Когда «друг» рассказывает что-то о живом человеке, планка доверия автоматически выше. Fawn Friends — не единственный продукт в нише физических AI-компаньонов. За последние два года на рынке появились десятки устройств, сочетающих мягкие игрушки, роботов и языковые модели: от детских ночников с голосовым собеседником до взрослых устройств для борьбы с одиночеством.
Все они сталкиваются с одним и тем же вызовом: как сделать ИИ живым и инициативным, не превратив его в источник дезинформации. Для рынка AI-компаньонов этот эпизод — не просто курьёз. Он ставит под вопрос саму архитектуру проактивных сообщений.
Пока компании не введут обязательную верификацию фактов перед отправкой инициативных уведомлений, подобные истории будут повторяться — только следующий «факт» может касаться не поп-певицы, а работодателя пользователя или его близких.