Journalist files class action against Grammarly for using her name in AI feature without consent
For months, Grammarly used the names and likenesses of real journalists in its AI feature "Expert Review" — without their consent. Journalist Julia Angwin filed

Grammarly несколько месяцев использовала имена, образы и профессиональный авторитет реальных журналистов в своей AI-функции «Экспертное ревью» — и всё это без какого-либо разрешения с их стороны. Теперь компания столкнулась с коллективным иском от одной из пострадавших. Журналист-расследователь Джулия Ангвин подала иск против Superhuman Platform Inc.
— компании, стоящей за Grammarly, — в среду. В документе утверждается, что Superhuman нарушила законы о праве на публичность и конфиденциальность, использовав личности реальных людей в коммерческих целях без их согласия. Иск подан как коллективный, то есть потенциально охватывает всех «экспертов», чьи имена фигурировали в функции.
Функция «Экспертное ревью» позиционировалась как возможность получить AI-предложения по улучшению текста, якобы основанные на стиле и подходах реальных авторитетных авторов. Проблема в том, что сами эти авторы понятия не имели о своём участии. О том, что её имя используется, Ангвин узнала от журналиста Кейси Ньютона — он и сам оказался в списке «экспертов», обнаруженных изданием The Verge.
Earlier The Verge опубликовал расследование, в котором задокументировал использование Grammarly реальных журналистских имён без разрешения. После публикации компания не прокомментировала ситуацию развёрнуто. Теперь же она получила полноценный судебный иск, который может превратиться в прецедент для всей индустрии.
Эта история ставит острый вопрос, который AI-индустрия пока предпочитает обходить стороной: где проходит граница между «вдохновением от автора» и незаконным коммерческим использованием его личности? Grammarly не просто обучала модель на текстах — она встраивала реальные имена в продукт как маркетинговый инструмент. Именно это превращает технический вопрос в правовой.
Исход иска может определить, как AI-компании будут вправе использовать репутацию реальных людей в будущем.