Comment un Auteur Habr a Transformé Sept Scénarios n8n en un Système Autonome d'Actualités IA
Un développeur a démontré comment, en un mois et demi, il a transformé un pipeline d'actualités fragile construit sur sept workflows n8n en un système IA presqu

История показывает, как из хрупкой no-code-сборки можно за несколько недель вырастить полноценную редакционную систему: автор отказался от семи разрозненных сценариев в n8n и собрал единый Python-пайплайн, который сам собирает, фильтрует, переводит, оформляет и публикует AI-новости почти без ручного вмешательства. Отправной точкой был классический хаос автоматизаций. Каждый workflow в n8n отвечал за отдельный этап: сбор новостей, чистку дублей, перевод, подготовку изображений и публикацию.
Формально всё работало, но любая ошибка превращалась в долгий поиск поломки: один сценарий мог завершиться «успешно», а на выходе ничего не дать, из-за чего рушилась вся цепочка. В какой-то момент автор понял, что главная проблема не в отдельных функциях, а в архитектуре: семь процессов означали семь разных точек отказа и почти нулевую наблюдаемость. Новую версию системы он собрал уже как один проект.
По его словам, переход помогли ускорить AI-инструменты: Cursor участвовал в настройке домашнего мини-ПК и локальной инфраструктуры, Perplexity — в обсуждении архитектурных решений, а Claude Code помог перевести набор workflow в Python и развернуть контейнеризированный сервис. Так появился пайплайн, в котором 11 воркеров делают по одной задаче каждый. Базовая цепочка выглядит так: collector собирает данные из RSS и API примерно 160 источников каждые 15 минут, scraper подтягивает полный текст, deduplicator убирает семантические дубли, ai_filter оценивает релевантность, translator переводит материалы на русский, llm_editor приводит тексты к нужному стилю, image_worker находит или генерирует иллюстрации, а publisher выпускает посты по расписанию.
Дополнительно работают фоновые процессы для поиска GitHub-репозиториев, работы с видео и ручной модерации. Отдельный акцент сделан на локальной модели. Вместо постоянных расходов на облачные API для перевода автор вынес эту задачу на домашний мини-ПК с Qwen 3.
5, запущенной через llama.cpp и оптимизированной под Vulkan. Это решило сразу две задачи: снизило стоимость обработки большого объёма новостей и оставило данные внутри собственной инфраструктуры.
По текущим цифрам система накопила 7127 записей в базе, а недельный входящий поток достигает примерно 1000 материалов. Но на выходе это не бесконечная лента: после фильтрации по relevance_score, редакторской проверки и распределения по слотам публикуется всего восемь постов в день. Такой подход, по словам автора, оказался эффективнее прежних 28 публикаций в сутки, когда аудитория видела слишком много шума и игнорировала большую часть канала.
Ещё один важный слой — агентная оркестрация. Решения о публикации и операционные настройки вынесены в OpenClaw, где работает координатор и ещё несколько AI-агентов: редактор, менеджер пайплайна, аудитор источников и аналитик. Координатору можно просто написать в Telegram команду вроде просьбы снизить дневной лимит публикаций, и он сам обращается к API, меняет конфигурацию и подтверждает результат.
Вокруг этого вырос и полноценный дашборд: он показывает статусы воркеров, прохождение каждой новости по этапам, эффективность источников, очереди, расписание слотов и опубликованные материалы. Такой уровень прозрачности позволяет быстро понять, где именно застрял контент и какие источники стоит отключить. Например, уже в первую неделю стало ясно, что около 20 источников не дают полезного сигнала, а pass rate помогает отделять шумные площадки от действительно ценных.
Главный вывод из этой истории не в том, что no-code плох, а Python хорош. Скорее, это пример того, как быстро меняется порог входа в сложные AI-системы. Автор не пишет код сам, но смог собрать рабочий продукт, ставя задачи, проверяя решения и управляя архитектурой.
Комбинация AI-кодинга, локальных LLM, дешёвой домашней инфраструктуры и понятной оркестрации превращает личный новостной проект в почти автономную редакцию. Для независимых медиа и нишевых каналов это сигнал: теперь ценность создаёт не сам факт автоматизации, а качество отбора, наблюдаемость системы и умение собрать из доступных инструментов устойчивый конвейер.