The Verge→ оригинал

Английская Википедия запретила редакторам писать статьи с помощью ИИ

Английская Википедия обновила редполитику: редакторы больше не могут создавать или переписывать статьи с помощью ИИ. Причина — языковые модели систематически на

Английская Википедия запретила редакторам писать статьи с помощью ИИ
Источник: The Verge. Коллаж: Hamidun News.

Английская Википедия обновила редакционные правила: редакторам теперь запрещено создавать и переписывать статьи с использованием языковых моделей. Обновление появилось в официальных руководящих документах энциклопедии на прошлой неделе и стало одним из наиболее конкретных ответов крупной публичной платформы на проблему массового ИИ-контента. Причина запрета сформулирована прямо: тексты, написанные ИИ, систематически нарушают несколько ключевых принципов Википедии.

Это требования к нейтральной точке зрения, верифицируемости источников и отсутствию оригинальных исследований. Языковые модели генерируют убедительно звучащий текст, который может не отражать реальное положение дел, смешивать источники или добавлять детали, которых не было в исходных материалах — и всё это без каких-либо предупреждений. При этом новые правила не запрещают ИИ полностью.

Редакторам разрешено использовать языковые модели в двух конкретных случаях. Первый — предложение базовых правок стиля и грамматики, при условии что модель не добавляет новый контент от себя. Второй — перевод статей с других языковых разделов Википедии на английский.

Однако и в этом случае редактор обязан проверить результат: ИИ-перевод нельзя публиковать без верификации. Это разграничение показательно. Википедия не пытается полностью изолироваться от инструментов на основе LLM, но проводит чёткую границу между технической помощью и генерацией смысла.

Редактор может попросить модель исправить запятые или предложить более плавный синтаксис — но не делегировать ей ответственность за содержание. Изменение касается пока только английского раздела — крупнейшего, с более чем 6,8 миллиона статей. Другие языковые версии Википедии управляются независимыми сообществами и могут принимать собственные решения.

Тем не менее английский раздел традиционно задаёт тон для всей экосистемы, и аналогичные правила вполне могут появиться в других версиях. За последние два года часть редакторов экспериментировала с ChatGPT и аналогичными инструментами для ускорения работы с большим объёмом необработанных тем. Проблема не в злом умысле — а в системных особенностях LLM: модели не умеют чётко разграничивать достоверно известное и лишь правдоподобно звучащее.

Для энциклопедии, строящейся на верифицируемых утверждениях, это фундаментальное противоречие. Решение Википедии выделяется на фоне того, как большинство платформ реагируют на ИИ-контент. Многие сервисы либо закрывают глаза на происхождение материала, либо ограничиваются расплывчатыми декларациями об ответственном использовании.

Здесь — конкретный, операционализированный запрет с чётко прописанными исключениями. Такой подход легче проверять и применять на практике. Открытым остаётся вопрос правоприменения.

Авторство текста сложно верифицировать автоматически: детекторы ИИ-контента давно признаны ненадёжными. Реальный механизм — сообщество редакторов, которое замечает характерные паттерны и выносит вопросы на обсуждение. Насколько эффективно это будет работать на масштабе миллионов статей, покажет время.

Для широкой дискуссии об ИИ в издательском деле этот шаг важен как прецедент. Википедия — один из немногих крупных публичных ресурсов с прозрачным governance: правила принимаются сообществом, документируются открыто и применяются без коммерческих стимулов. Если опыт окажется успешным, он может стать ориентиром для других платформ, которые пока избегают жёстких формулировок.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…