Grammarly a transformé des auteurs en « éditeurs AI » sans consentement — recours collectif déposé
La journaliste Julia Angwin mène un recours collectif contre Grammarly. L’entreprise est accusée d’avoir utilisé, sans consentement, les textes d’auteurs profes

Журналист-расследователь Джулия Энгвин подала коллективный иск против Grammarly, обвинив компанию в незаконном использовании работ авторов для обучения ИИ-инструментов. По версии истцов, сервис превращал профессиональных писателей в так называемых «ИИ-редакторов» без их ведома и согласия — нарушая тем самым их права на приватность и публичность. Суть претензии в следующем: Grammarly собирал тексты своих пользователей, в том числе профессиональных журналистов и писателей, и использовал их для тренировки алгоритмов автоматического редактирования.
По сути, ИИ учился работать с текстом так же, как это делают живые авторы — анализируя их решения, стиль и правки. При этом ни уведомления, ни запроса согласия, ни какого-либо вознаграждения авторам не предлагалось. Иск строится сразу на двух правовых основаниях: нарушение права на приватность и нарушение права на публичность.
Последнее защищает человека от коммерческого использования его личности, стиля или репутации без явного разрешения. Джулия Энгвин — известный американский журналист, лауреат многочисленных профессиональных премий и основатель издания The Markup, которое специализируется на расследованиях о технологиях, данных и корпоративной слежке. Её книга «Dragnet Nation» стала одним из главных текстов эпохи цифровой приватности.
Именно Энгвин выступила ведущим истцом в коллективном иске. За ней могут стоять тысячи других пользователей Grammarly — всех профессиональных авторов, чьи тексты могли быть использованы аналогичным образом без их ведома. Иск был подан в федеральный суд США.
Истцы требуют не только компенсации убытков, но и запрета дальнейшего использования авторских данных без явного согласия, а также полной прозрачности в отношении того, какие именно материалы использовались для обучения ИИ-моделей компании. Если коллективному иску будет присвоен соответствующий статус, под его действие могут попасть сотни тысяч пользователей сервиса по всему миру, которые никогда не давали согласия на использование своих текстов в подобных целях. Grammarly — один из наиболее популярных в мире ИИ-инструментов для работы с текстом: более 30 миллионов пользователей используют его для проверки грамматики, улучшения стиля и генерации контента.
Сервис активно продвигается среди журналистов, писателей и профессиональных редакторов, что делает претензии истцов особенно болезненными для репутации компании. В последние годы Grammarly активно развивала ИИ-функции, интегрируя большие языковые модели, — именно эта экспансия и привлекла внимание истцов. Дело вписывается в более широкую волну исков против технологических компаний, обвиняемых в несанкционированном использовании контента для обучения ИИ.
Схожие претензии предъявлялись OpenAI, Stability AI, GitHub Copilot, Meta и ряду других игроков. Однако иск к Grammarly имеет особый акцент: речь идёт не просто о воспроизведении контента, а о присвоении редакторского стиля конкретных авторов — то есть о коммерческом использовании их профессиональной идентичности. Правовая теория здесь нетривиальна.
Право на публичность исторически применялось к знаменитостям — защищало имена, лица и голоса от коммерческой эксплуатации без согласия. Но в эпоху генеративного ИИ юристы начинают расширять эту концепцию: если модель учится имитировать авторский стиль, не является ли это использованием нематериального актива этого человека? Если ИИ продаётся как инструмент, который «редактирует как профессионал», — за чей счёт строится эта компетенция?
Ответ суда на эти вопросы создаст прецедент для всей индустрии. Для авторов и журналистов сигнал очевиден: согласие на обработку данных в пользовательских соглашениях — не то же самое, что разрешение на использование вашего профессионального стиля в качестве обучающего материала для ИИ-продуктов. Каждый раз, когда автор принимает предложение от ИИ-инструмента, он может вносить вклад в систему, которая со временем заменит его.
Граница между «инструментом, которым ты пользуешься» и «данными, которые тебя эксплуатируют», становится всё тоньше.