Superhuman использовал имена журналистов без разрешения — CEO объяснился в эфире
Grammarly (теперь Superhuman) запустила функцию, которая генерировала редакторские советы от имени реальных журналистов — без их согласия. Скандал привёл к колл

Компания Grammarly, переименованная в Superhuman, запустила функцию Expert Review, которая генерировала редакторские советы от имени реальных журналистов и экспертов — без их ведома и согласия. В числе «экспертов» оказались редактор The Verge Нилай Патель и журналист-расследователь Джулия Ангвин. Скандал вышел настолько громким, что Ангвин подала коллективный иск, а CEO Superhuman Шишир Мехротра согласился дать интервью Пателю — человеку, чьё имя его компания использовала без разрешения.
Superhuman — американская AI-компания, которая в конце 2025 года переименовала своё юридическое лицо из Grammarly. Флагманский продукт Grammarly знаком примерно 40 миллионам ежедневных пользователей как ИИ-помощник по письму. Компания также развивает Coda (документы), почтовый клиент Mail и платформу Superhuman Go — набор персонализированных ИИ-агентов, работающих прямо в тех приложениях, которые уже использует сотрудник.
Функция Expert Review появилась в августе 2025 года. Она предлагала пользователям редакторские правки, «вдохновлённые» конкретными медиаперсонами — с упоминанием их имён и ссылками на публикации. Ни у кого разрешения не спрашивали.
Мехротра на интервью признал: функция была провальной — и для пользователей, и для экспертов. Она почти не использовалась, не соответствовала стратегии компании и была отключена ещё до подачи иска. Первой реакцией Superhuman, впрочем, стало предложение email-отписки, а не немедленное удаление.
Самым острым моментом интервью стала дискуссия об атрибуции и самозванстве. Мехротра настаивал, что Expert Review не занималась impersonation: функция лишь «вдохновлялась» работами конкретных людей и чётко это указывала. Патель парировал: то, что система генерировала от его имени, не имело ничего общего с его реальными редакторскими советами.
«Я никогда не говорю об эмоциональных заголовках. Vergecast — не шоу о редактуре заголовков про смарт-часы». По его словам, атрибутировать чужой текст — это не то же самое, что ставить чужое имя под сгенерированным контентом, который человек никогда бы не создал.
Иск Ангвин основан не на самозванстве, а на законах Нью-Йорка и Калифорнии, запрещающих использование имён и личности людей в коммерческих целях без согласия. Мехротра настаивает, что претензии не имеют оснований, и ссылается на то, что ни один LLM сегодня не получает разрешения на атрибуцию. Однако признаёт: правовой минимум — не тот стандарт, к которому стоит стремиться.
Его ориентир — модель YouTube, которую он сам строил: платформа, на которую создатели сами захотят прийти, с понятной долей выручки. Superhuman Go планирует делиться 70% дохода с авторами агентов. Разговор вышел за рамки одного инцидента.
Патель процитировал опрос NBC News, по которому общественное восприятие ИИ хуже, чем у иммиграционной службы. По его мнению, причина — в экстрактивной природе технологии: ИИ берёт чужой труд в качестве сырья, не предлагая взамен ничего равноценного. Мехротра возражал: люди боятся потери рабочих мест, а не проблем с атрибуцией.
Цель Superhuman, по его словам, — не заменять людей, а расширять их возможности, делать из них «суперлюдей». Этот эпизод — симптом системного противоречия. ИИ-компании строят продукты на человеческом творчестве, не формируя чёткого экономического договора с авторами.
Суды ещё не ответили на ключевой вопрос: является ли обучение LLM на чужих текстах нарушением авторских прав. Пока этот вопрос открыт, подобные скандалы неизбежны. Superhuman закрыл функцию и извинился — но для всей индустрии урок гораздо шире.