Habr AI→ оригинал

Como um Autor da Habr Transformou Sete Cenários n8n em um Sistema Autônomo de Notícias IA

Um desenvolvedor demonstrou como, em um mês e meio, transformou um frágil pipeline de notícias construído em sete fluxos de trabalho n8n em um sistema IA quase

Como um Autor da Habr Transformou Sete Cenários n8n em um Sistema Autônomo de Notícias IA
Источник: Habr AI. Коллаж: Hamidun News.

История показывает, как из хрупкой no-code-сборки можно за несколько недель вырастить полноценную редакционную систему: автор отказался от семи разрозненных сценариев в n8n и собрал единый Python-пайплайн, который сам собирает, фильтрует, переводит, оформляет и публикует AI-новости почти без ручного вмешательства. Отправной точкой был классический хаос автоматизаций. Каждый workflow в n8n отвечал за отдельный этап: сбор новостей, чистку дублей, перевод, подготовку изображений и публикацию.

Формально всё работало, но любая ошибка превращалась в долгий поиск поломки: один сценарий мог завершиться «успешно», а на выходе ничего не дать, из-за чего рушилась вся цепочка. В какой-то момент автор понял, что главная проблема не в отдельных функциях, а в архитектуре: семь процессов означали семь разных точек отказа и почти нулевую наблюдаемость. Новую версию системы он собрал уже как один проект.

По его словам, переход помогли ускорить AI-инструменты: Cursor участвовал в настройке домашнего мини-ПК и локальной инфраструктуры, Perplexity — в обсуждении архитектурных решений, а Claude Code помог перевести набор workflow в Python и развернуть контейнеризированный сервис. Так появился пайплайн, в котором 11 воркеров делают по одной задаче каждый. Базовая цепочка выглядит так: collector собирает данные из RSS и API примерно 160 источников каждые 15 минут, scraper подтягивает полный текст, deduplicator убирает семантические дубли, ai_filter оценивает релевантность, translator переводит материалы на русский, llm_editor приводит тексты к нужному стилю, image_worker находит или генерирует иллюстрации, а publisher выпускает посты по расписанию.

Дополнительно работают фоновые процессы для поиска GitHub-репозиториев, работы с видео и ручной модерации. Отдельный акцент сделан на локальной модели. Вместо постоянных расходов на облачные API для перевода автор вынес эту задачу на домашний мини-ПК с Qwen 3.

5, запущенной через llama.cpp и оптимизированной под Vulkan. Это решило сразу две задачи: снизило стоимость обработки большого объёма новостей и оставило данные внутри собственной инфраструктуры.

По текущим цифрам система накопила 7127 записей в базе, а недельный входящий поток достигает примерно 1000 материалов. Но на выходе это не бесконечная лента: после фильтрации по relevance_score, редакторской проверки и распределения по слотам публикуется всего восемь постов в день. Такой подход, по словам автора, оказался эффективнее прежних 28 публикаций в сутки, когда аудитория видела слишком много шума и игнорировала большую часть канала.

Ещё один важный слой — агентная оркестрация. Решения о публикации и операционные настройки вынесены в OpenClaw, где работает координатор и ещё несколько AI-агентов: редактор, менеджер пайплайна, аудитор источников и аналитик. Координатору можно просто написать в Telegram команду вроде просьбы снизить дневной лимит публикаций, и он сам обращается к API, меняет конфигурацию и подтверждает результат.

Вокруг этого вырос и полноценный дашборд: он показывает статусы воркеров, прохождение каждой новости по этапам, эффективность источников, очереди, расписание слотов и опубликованные материалы. Такой уровень прозрачности позволяет быстро понять, где именно застрял контент и какие источники стоит отключить. Например, уже в первую неделю стало ясно, что около 20 источников не дают полезного сигнала, а pass rate помогает отделять шумные площадки от действительно ценных.

Главный вывод из этой истории не в том, что no-code плох, а Python хорош. Скорее, это пример того, как быстро меняется порог входа в сложные AI-системы. Автор не пишет код сам, но смог собрать рабочий продукт, ставя задачи, проверяя решения и управляя архитектурой.

Комбинация AI-кодинга, локальных LLM, дешёвой домашней инфраструктуры и понятной оркестрации превращает личный новостной проект в почти автономную редакцию. Для независимых медиа и нишевых каналов это сигнал: теперь ценность создаёт не сам факт автоматизации, а качество отбора, наблюдаемость системы и умение собрать из доступных инструментов устойчивый конвейер.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…