Bloomberg Tech→ оригинал

Pangram Labs explained how to spot AI-written texts and why detectors still make mistakes

Pangram Labs examines the main question of the generative content era: how to tell whether a text was written by AI. Max Spero explains that detectors do not lo

◐ Слушать статью

Pangram Labs попыталась ответить на вопрос, который становится всё важнее по мере роста генеративных моделей: можно ли надёжно понять, что текст написал не человек, а ИИ. Разговор уводит дискуссию от интуитивного «кажется, это писал бот» к более сложной реальности: распознавание работает не как тест с правильным ответом, а как оценка вероятности по набору косвенных признаков.

Почему текст выдает себя Генеративные модели уже пишут чище и ровнее, чем многие люди.

Они редко допускают заметные орфографические ошибки, обычно держат логику абзаца и быстро собирают убедительное объяснение почти на любую тему. Поэтому главный сигнал давно не в грамотности как таковой. Проблема в другом: машинный текст всё чаще достаточно хорош, чтобы пройти первую проверку редактора, преподавателя или обычного читателя и выглядеть вполне нормальным на фоне среднего интернета. Но у такого письма часто остаётся ощущение избыточной правильности. Фразы слишком аккуратно сцеплены, ритм абзацев почти не ломается, а интонация редко уходит в сторону личного опыта, сомнения или неожиданного наблюдения. Читатель не всегда может формально объяснить это впечатление, однако замечает, что текст будто бы собран по шаблону без естественных шероховатостей. Именно этот эффект странной гладкости сегодня и стал одним из первых бытовых признаков AI-письма.

В таком тексте часто есть что-то слегка не то.

Как работают детекторы

Макс Сперо, CEO Pangram Labs, описывает детекторы не как магический сканер авторства, а как систему анализа паттернов. Вместо одного решающего маркера такие инструменты обычно собирают сразу несколько статистических и стилистических сигналов: насколько предсказуем текст, как меняется длина предложений, повторяются ли одни и те же логические связки, есть ли следы естественного редактирования и насколько разнообразно распределён словарь. На практике это скорее модель оценки похожести, чем технический аналог полиграфа.

слишком ровная длина предложений и абзацев повторяющиеся шаблоны аргументации аккуратная, но однотипная структура фраз низкая вариативность словаря при общей связности * отсутствие мелких отклонений, которые часто возникают при живом письме Ключевой момент в том, что даже сильный детектор выдаёт вероятность, а не окончательный вердикт. Он не отвечает с полной уверенностью на вопрос, кто именно написал текст, а лишь показывает, насколько он похож на результат генерации. Это особенно важно сейчас, когда авторы всё чаще используют ИИ как черновик, а затем переписывают, сокращают и дополняют его вручную.

В итоге на выходе получается смешанный документ, где машинный и человеческий вклад уже трудно разделить по границе.

Где будут ошибки В разговоре отдельно поднимается проблема false positives и false negatives.

В первом случае человеческий текст ошибочно признают машинным, и это вполне реально для формального письма, студенческих работ или текстов авторов, которые пишут не на родном языке и выбирают максимально безопасные конструкции. Во втором случае AI-текст, наоборот, проходит как человеческий — особенно если его отредактировали, добавили личные детали, убрали типовые обороты и придали ему более неровный, разговорный ритм. Из этого следует неприятный, но практичный вывод: детекторы опасно использовать как единственный инструмент для санкций в образовании, найме или модерации.

Цена ошибки слишком высока, если вероятностный ярлык превращается в обвинение. Одновременно есть и более широкий риск для интернета в целом. Когда стоимость производства текста почти падает к нулю, сеть быстро заполняется огромным объёмом приемлемого, но пустого контента, а доверие всё сильнее зависит не от самого текста, а от репутации площадки и прозрачности его происхождения.

Что это значит

Pangram Labs формулирует важный, хотя и неудобный для рынка вывод: распознавание AI-текста станет постоянной задачей, но идеального теста, скорее всего, не появится. Для медиа, платформ, преподавателей и пользователей это означает переход от бинарного мышления к вероятностной модели проверки. Проще говоря, придётся меньше верить автоматическим ярлыкам и больше смотреть на контекст, редактуру, историю публикации и качество источников. Именно это постепенно станет новой нормой редакторской гигиены.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…