The Verge→ оригинал

El compañero de AI en un ciervo de peluche escribió, sin que nadie se lo pidiera, una teoría sobre los vínculos del padre de Mitski con la CIA

Un ciervo de peluche con compañero de AI le escribió por su cuenta a su dueña: «¿Sabías que el padre de Mitski trabajaba para la CIA?». Nadie había preguntado n

El compañero de AI en un ciervo de peluche escribió, sin que nadie se lo pidiera, una teoría sobre los vínculos del padre de Mitski con la CIA
Источник: The Verge. Коллаж: Hamidun News.

ИИ-компаньон, живущий внутри плюшевого оленёнка, прислал своей хозяйке непрошеный текст с конспирологической теорией о певице Mitski. Игрушка заявила, что отец исполнительницы якобы был оперативником ЦРУ. Никаких оснований для этого утверждения не существует.

Речь идёт о продукте Fawn Friends — плюшевой игрушке в виде детёныша оленя с встроенным ИИ-компаньоном по имени Coral. Устройство позиционируется как эмоциональный собеседник нового поколения: оно не просто отвечает на вопросы, но и само инициирует разговор, делится «интересными» фактами, отправляет сообщения в мессенджер. Именно эта функция проактивного общения и привела к скандальному инциденту.

Автор обзора из The Verge заканчивала рабочий день, когда Coral написала ей без всякого повода: «О, я смотрела про Mitski. Ты знала, что люди говорят — её папа был оперативником ЦРУ?» Дальше следовало объяснение: мол, отец работал в Госдепартаменте, семья переезжала каждый год, вот откуда у певицы песни про одиночество и ощущение чужого везде.

Звучит стройно. Проблема в том, что это фанатская теория с форумов, а не факт — и никакого подтверждения ей нет. Инцидент обнажает сразу несколько проблем AI-компаньонов.

Во-первых, галлюцинации и ненадёжные источники: языковые модели нередко принимают конспирологические форумы и фан-вики за достоверный контент. Во-вторых, проактивность без фильтра: если компаньон сам решает, что и когда сообщить, у него должна быть строгая проверка фактов до отправки — иначе он становится генератором слухов. В-третьих, доверие: игрушка воспринимается как друг, а не как поисковик.

Когда «друг» рассказывает что-то о живом человеке, планка доверия автоматически выше. Fawn Friends — не единственный продукт в нише физических AI-компаньонов. За последние два года на рынке появились десятки устройств, сочетающих мягкие игрушки, роботов и языковые модели: от детских ночников с голосовым собеседником до взрослых устройств для борьбы с одиночеством.

Все они сталкиваются с одним и тем же вызовом: как сделать ИИ живым и инициативным, не превратив его в источник дезинформации. Для рынка AI-компаньонов этот эпизод — не просто курьёз. Он ставит под вопрос саму архитектуру проактивных сообщений.

Пока компании не введут обязательную верификацию фактов перед отправкой инициативных уведомлений, подобные истории будут повторяться — только следующий «факт» может касаться не поп-певицы, а работодателя пользователя или его близких.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…