Grammarly sued over AI feature that presented advice as coming from scientists without their consent
Grammarly shut down the Expert Review feature after a class-action lawsuit. The feature presented AI edits as if they came from well-known writers and scientist

Grammarly закрыла функцию Expert Review после подачи коллективного иска. Функция представляла правки, сгенерированные искусственным интеллектом, так, словно они исходили от известных авторов и учёных — без их согласия и ведома. Это очередной случай, когда AI-продукт переступает черту там, где цифровая персона пересекается с правами живых людей.
Grammarly — один из самых распространённых инструментов для улучшения письменного текста. По данным компании, её сервисами пользуются более 30 миллионов человек ежедневно: студенты, журналисты, менеджеры, копирайтеры. Продукт начинался как простая проверка орфографии, но за последние годы вырос в полноценную AI-платформу с функциями стилистики, тональности и персонализации.
Expert Review была одной из таких функций. Идея выглядела привлекательно: пользователь получает обратную связь не просто от алгоритма, а в стиле конкретных признанных авторов или учёных. На практике же, по данным истцов, система не просто вдохновлялась чьим-то стилем — она прямо атрибутировала советы реальным людям, используя их имена как знак качества.
Авторы и академики, чьи имена оказались вовлечены, о подобном использовании не знали, согласия не давали и никакого вознаграждения не получали. Суть правовой проблемы — в так называемом right of publicity: праве человека контролировать коммерческое использование своего имени, образа и репутации. В американском праве это право хорошо защищено, особенно в штатах вроде Калифорнии и Нью-Йорка.
Коллективный характер иска (class action) означает, что пострадавшие объединились для совместного требования — и если суд примет его как единое дело, потенциальные выплаты могут оказаться весьма значительными. Grammarly отреагировала быстро: в тот же день, когда об иске стало публично известно, функция была отключена. Такой шаг снижает текущий репутационный ущерб и демонстрирует готовность компании к диалогу, однако не снимает ответственности за уже произошедшее.
Юристы отмечают, что оперативное закрытие функции, как правило, учитывается судом в пользу ответчика при определении размера компенсации, но не исключает самой ответственности. История с Grammarly — часть более широкой волны. По мере того как ИИ-продукты переходят от общих советов к персонализированному контенту, они всё чаще опираются на «реальных людей» как точку доверия.
Дипфейки знаменитостей в рекламе, AI-голоса умерших музыкантов, чат-боты, имитирующие живых инфлюенсеров, — юридическое пространство вокруг всего этого только формируется. Grammarly оказалась в нём неожиданно: функция редактирования текста кажется далёкой от мира дипфейков. Но принцип тот же — чужое имя используется как актив без разрешения его владельца.
Для рынка это сигнал: даже функции, которые кажутся безобидными UX-улучшениями, несут юридические риски, если в их основе лежит атрибуция реальным людям. Прежде чем использовать имя или образ любого живого человека — автора, учёного, эксперта — в качестве «лейбла» для AI-советов, компании обязаны получить явное письменное согласие. Иначе следующий иск может оказаться дороже, чем экономия на юридической проверке.