Wired→ оригинал

Grammarly enfrenta una demanda por una función de AI que presentaba consejos como si fueran de científicos sin su consentimiento

Grammarly cerró la función Expert Review tras una demanda colectiva. La función presentaba correcciones de AI como si fueran de escritores y científicos conocid

Grammarly enfrenta una demanda por una función de AI que presentaba consejos como si fueran de científicos sin su consentimiento
Источник: Wired. Коллаж: Hamidun News.

Grammarly закрыла функцию Expert Review после подачи коллективного иска. Функция представляла правки, сгенерированные искусственным интеллектом, так, словно они исходили от известных авторов и учёных — без их согласия и ведома. Это очередной случай, когда AI-продукт переступает черту там, где цифровая персона пересекается с правами живых людей.

Grammarly — один из самых распространённых инструментов для улучшения письменного текста. По данным компании, её сервисами пользуются более 30 миллионов человек ежедневно: студенты, журналисты, менеджеры, копирайтеры. Продукт начинался как простая проверка орфографии, но за последние годы вырос в полноценную AI-платформу с функциями стилистики, тональности и персонализации.

Expert Review была одной из таких функций. Идея выглядела привлекательно: пользователь получает обратную связь не просто от алгоритма, а в стиле конкретных признанных авторов или учёных. На практике же, по данным истцов, система не просто вдохновлялась чьим-то стилем — она прямо атрибутировала советы реальным людям, используя их имена как знак качества.

Авторы и академики, чьи имена оказались вовлечены, о подобном использовании не знали, согласия не давали и никакого вознаграждения не получали. Суть правовой проблемы — в так называемом right of publicity: праве человека контролировать коммерческое использование своего имени, образа и репутации. В американском праве это право хорошо защищено, особенно в штатах вроде Калифорнии и Нью-Йорка.

Коллективный характер иска (class action) означает, что пострадавшие объединились для совместного требования — и если суд примет его как единое дело, потенциальные выплаты могут оказаться весьма значительными. Grammarly отреагировала быстро: в тот же день, когда об иске стало публично известно, функция была отключена. Такой шаг снижает текущий репутационный ущерб и демонстрирует готовность компании к диалогу, однако не снимает ответственности за уже произошедшее.

Юристы отмечают, что оперативное закрытие функции, как правило, учитывается судом в пользу ответчика при определении размера компенсации, но не исключает самой ответственности. История с Grammarly — часть более широкой волны. По мере того как ИИ-продукты переходят от общих советов к персонализированному контенту, они всё чаще опираются на «реальных людей» как точку доверия.

Дипфейки знаменитостей в рекламе, AI-голоса умерших музыкантов, чат-боты, имитирующие живых инфлюенсеров, — юридическое пространство вокруг всего этого только формируется. Grammarly оказалась в нём неожиданно: функция редактирования текста кажется далёкой от мира дипфейков. Но принцип тот же — чужое имя используется как актив без разрешения его владельца.

Для рынка это сигнал: даже функции, которые кажутся безобидными UX-улучшениями, несут юридические риски, если в их основе лежит атрибуция реальным людям. Прежде чем использовать имя или образ любого живого человека — автора, учёного, эксперта — в качестве «лейбла» для AI-советов, компании обязаны получить явное письменное согласие. Иначе следующий иск может оказаться дороже, чем экономия на юридической проверке.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…