Habr AI→ оригинал

Un auteur sur Habr a vérifié si ChatGPT peut reconstituer des articles à partir de prompts courts

Un auteur sur Habr a pris deux articles populaires et a tenté de les reconstituer avec ChatGPT à partir de prompts condensés. Dans le premier cas, 67 mots ont s

Un auteur sur Habr a vérifié si ChatGPT peut reconstituer des articles à partir de prompts courts
Источник: Habr AI. Коллаж: Hamidun News.
◐ Слушать статью

Автор на Хабре решил проверить громкую идею о том, что любой текст можно сжать до короткого промпта и затем почти без потерь восстановить через ChatGPT. Вместо ссылок на «кембриджских исследователей» он взял реальные статьи площадки и провёл собственный тест.

Как устроили тест

Поводом стала реакция на более ранний перевод статьи The Prompt, где утверждалось, что некие кембриджские исследователи умеют сводить любой текст к минимальному промпту с точностью восстановления 98%. Читатели быстро заметили, что история выглядит как стилизация под «британских учёных», и это подтолкнуло автора проверить уже не легенду, а сам принцип. Для эксперимента он выбрал Хабр как площадку с жёсткой технической аудиторией, где слабые аргументы и натяжки обычно не живут долго.

Дальше схема была простой: взять две свежие статьи с высоким рейтингом, сжать их до промпта и попросить ChatGPT написать новый текст в похожем жанре без поиска в интернете. Автор смотрел не только на общий тон, но и на более приземлённые вещи: сохраняются ли структура, ключевые цифры, важные эпизоды и порядок аргументов. Отдельно он следил за тем, где модель начнёт достраивать историю сама, потому что именно такие вставки легко принять за реальные детали.

Где сработало Первый тест оказался почти демонстрацией силы шаблонного восстановления.

Речь шла о статье с тезисом, что незаменимые сотрудники — это не дефект архитектуры команды, а ценный ресурс. Для такой публикации хватило промпта всего на 67 слов, после чего ChatGPT сгенерировал текст на 651 слово. По оценке автора, совпадение получилось настолько высоким, что рядом с оригиналом реконструкция выглядела пугающе убедительно.

  • Сохранился главный тезис о ценности «незаменимых» сотрудников Вернулась критика стандартных способов снижать bus factor Модель воспроизвела рекомендации: платить в 1.5–2 раза больше, документировать через процесс, нанимать самостоятельных людей На месте остались два практических сценария и точная цифра прибавки в 40% ChatGPT даже добавил правдоподобную деталь — девятимесячный таймлайн провала, которого не было в исходнике Коэффициент сжатия в этом случае составил примерно 10:1. Но вместе с впечатляющим результатом появилась и проблема: модель не просто восстанавливает знакомую логику, а уверенно заполняет пробелы тем, что «похоже на правду». Для читателя, который не держит рядом оригинал, разница между восстановленной и реальной статьёй может оказаться почти незаметной, особенно если текст строится на общих управленческих паттернах, давно известных модели.

Где предел метода На второй статье эксперимент дал совсем другой результат.

Материал был посвящён не абстрактным выводам, а разбору блокировок Telegram, DPI и тому, как сообщество разработчиков вручную исправляло конкретные ошибки в реализации FakeTLS. Чтобы приблизиться к исходной логике, автору пришлось написать уже 357 слов промпта — почти в пять раз больше. На выходе ChatGPT выдал 914 слов, но важная часть текста всё равно растворилась. Не хватило именно того, что отличает пересказ от реальной инженерной работы: конкретных значений TLS-расширений, расхождения между заявленным и фактическим размером ключа, номера pull request, хеша коммита, названия сообщества, которое принесло исправление, и других артефактов, добытых из трафика и кода. Иными словами, модель восстановила общий спор, но не смогла вернуть то, что было найдено руками в живой системе, а не лежало в обучающих данных.

«ChatGPT восстановил аргумент.

Он не восстановил работу.» Именно здесь автор проводит границу между удобной имитацией и настоящим знанием. Если ценность текста держится на структуре, знакомых тезисах и типовых выводах, он хорошо ужимается и неплохо разворачивается назад. Но если статья состоит из ручного реверса, замеров, перехвата пакетов и новых наблюдений, те самые «2% потерь» превращаются почти во всё, ради чего такой материал вообще читали.

Что это значит

Эксперимент на Хабре не доказывает, что LLM уже способны заменить авторов целиком, но он довольно точно показывает, где проходит практическая граница. Колонки, объясняющие тексты и управленческие эссе с общими паттернами модели пересобирают заметно легче, чем материалы с уникальными фактами и собственными измерениями. Для редакторов и читателей отсюда следует простой тест: важно не только то, насколько убедительно звучит статья, а есть ли в ней что-то, что автор действительно сам нашёл, проверил и доказал. Именно эта часть контента пока хуже всего переживает сжатие в промпт и обратную сборку.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…