Habr AI→ оригинал

Как автор Habr превратил семь сценариев n8n в автономную AI-новостную систему

Разработчик показал, как за полтора месяца превратил хрупкий новостной пайплайн на семи n8n-воркфлоу в почти автономную AI-систему. Вместо ручного контроля тепе

Как автор Habr превратил семь сценариев n8n в автономную AI-новостную систему
Источник: Habr AI. Коллаж: Hamidun News.

История показывает, как из хрупкой no-code-сборки можно за несколько недель вырастить полноценную редакционную систему: автор отказался от семи разрозненных сценариев в n8n и собрал единый Python-пайплайн, который сам собирает, фильтрует, переводит, оформляет и публикует AI-новости почти без ручного вмешательства. Отправной точкой был классический хаос автоматизаций. Каждый workflow в n8n отвечал за отдельный этап: сбор новостей, чистку дублей, перевод, подготовку изображений и публикацию.

Формально всё работало, но любая ошибка превращалась в долгий поиск поломки: один сценарий мог завершиться «успешно», а на выходе ничего не дать, из-за чего рушилась вся цепочка. В какой-то момент автор понял, что главная проблема не в отдельных функциях, а в архитектуре: семь процессов означали семь разных точек отказа и почти нулевую наблюдаемость. Новую версию системы он собрал уже как один проект.

По его словам, переход помогли ускорить AI-инструменты: Cursor участвовал в настройке домашнего мини-ПК и локальной инфраструктуры, Perplexity — в обсуждении архитектурных решений, а Claude Code помог перевести набор workflow в Python и развернуть контейнеризированный сервис. Так появился пайплайн, в котором 11 воркеров делают по одной задаче каждый. Базовая цепочка выглядит так: collector собирает данные из RSS и API примерно 160 источников каждые 15 минут, scraper подтягивает полный текст, deduplicator убирает семантические дубли, ai_filter оценивает релевантность, translator переводит материалы на русский, llm_editor приводит тексты к нужному стилю, image_worker находит или генерирует иллюстрации, а publisher выпускает посты по расписанию.

Дополнительно работают фоновые процессы для поиска GitHub-репозиториев, работы с видео и ручной модерации. Отдельный акцент сделан на локальной модели. Вместо постоянных расходов на облачные API для перевода автор вынес эту задачу на домашний мини-ПК с Qwen 3.

5, запущенной через llama.cpp и оптимизированной под Vulkan. Это решило сразу две задачи: снизило стоимость обработки большого объёма новостей и оставило данные внутри собственной инфраструктуры.

По текущим цифрам система накопила 7127 записей в базе, а недельный входящий поток достигает примерно 1000 материалов. Но на выходе это не бесконечная лента: после фильтрации по relevance_score, редакторской проверки и распределения по слотам публикуется всего восемь постов в день. Такой подход, по словам автора, оказался эффективнее прежних 28 публикаций в сутки, когда аудитория видела слишком много шума и игнорировала большую часть канала.

Ещё один важный слой — агентная оркестрация. Решения о публикации и операционные настройки вынесены в OpenClaw, где работает координатор и ещё несколько AI-агентов: редактор, менеджер пайплайна, аудитор источников и аналитик. Координатору можно просто написать в Telegram команду вроде просьбы снизить дневной лимит публикаций, и он сам обращается к API, меняет конфигурацию и подтверждает результат.

Вокруг этого вырос и полноценный дашборд: он показывает статусы воркеров, прохождение каждой новости по этапам, эффективность источников, очереди, расписание слотов и опубликованные материалы. Такой уровень прозрачности позволяет быстро понять, где именно застрял контент и какие источники стоит отключить. Например, уже в первую неделю стало ясно, что около 20 источников не дают полезного сигнала, а pass rate помогает отделять шумные площадки от действительно ценных.

Главный вывод из этой истории не в том, что no-code плох, а Python хорош. Скорее, это пример того, как быстро меняется порог входа в сложные AI-системы. Автор не пишет код сам, но смог собрать рабочий продукт, ставя задачи, проверяя решения и управляя архитектурой.

Комбинация AI-кодинга, локальных LLM, дешёвой домашней инфраструктуры и понятной оркестрации превращает личный новостной проект в почти автономную редакцию. Для независимых медиа и нишевых каналов это сигнал: теперь ценность создаёт не сам факт автоматизации, а качество отбора, наблюдаемость системы и умение собрать из доступных инструментов устойчивый конвейер.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…