Un développeur crée un agrégateur d'actualités avec AI, MCP, DeepSeek et un bot Telegram
Le projet est né d'un manque réel d'informations rapides pendant l'attaque de drones au-dessus de Dubaï le 28 février 2026. Le développeur a lancé un agrégateur

Поводом для этого проекта стала не абстрактная идея, а конкретная проблема: 28 февраля 2026 года автор оказался в Дубае во время перехвата иранских беспилотников и не смог быстро получить цельную картину происходящего. Так появился мультиязычный новостной агрегатор, который собирает новости, переводит их, размечает и отдает не только людям, но и AI-ассистентам.
Как появился проект
Автор описывает отправную точку очень приземленно: в Google и Яндексе попадались материалы двухчасовой давности, а Telegram-каналы давали противоречивые версии событий. Когда новости нужны прямо сейчас, такая задержка превращается из мелкого неудобства в реальную проблему. Сначала решение было простым — Telegram-канал по Ближнему Востоку, куда вручную стекались RSS-потоки крупных мировых агентств. Дальше ручной режим быстро уперся в объем. Поток вырос до 200+ публикаций в день, и поддерживать его без автоматизации стало бессмысленно. Тогда появился парсер, затем автоперевод, потом подключились IT-источники и экономическая повестка. В итоге локальная идея оперативного канала превратилась в полноценный продукт: сайт-агрегатор с лентой новостей, AI-чатом, API, MCP-сервером и отдельным Telegram-ботом.
Что внутри системы Проект построен как набор независимых компонентов, а не как один монолит.
Отдельный сервис FeedManager забирает RSS, обрабатывает ленты и пишет данные в MySQL. Flask-часть читает уже готовые статьи и не зависит от того, завис ли парсер на каком-нибудь нестабильном источнике. Авторазметка тегов работает как самостоятельный процесс: читает свежие материалы из базы и записывает обратно результаты, а бот в Telegram отвечает пользователям в своем контуре.
80+ источников в одном потоке, включая международные агентства, IT-медиа и деловые издания 9 тематических категорий и около 50 тегов для навигации по ленте автоматический перевод материалов на русский язык сразу после публикации REST API с поиском, фильтрами по тегам, датам и источникам * MCP-сервер, который позволяет AI-ассистентам работать с новостной базой как с инструментом Поверх агрегатора работает API и MCP-сервер для внешних клиентов и AI-агентов. Ключевая деталь — не просто выдача сырого JSON, а структурированные ответы через Pydantic-модели вроде ArticleSummary и SearchResult. Это снижает число ошибок при обработке и экономит токены.
По задумке автора, ассистент может сам найти нужный тег, запросить статьи за последние дни, прочитать полные тексты и собрать дайджест без ручной подготовки данных. Инструменты подхватываются динамически каждые пять минут, поэтому новые возможности можно добавлять без переписывания логики агента.
Почему без лишнего AI AI в этом проекте используется не везде, а
только там, где он действительно окупается. Для чат-интерфейса выбран DeepSeek: по словам автора, он в 15–30 раз дешевле альтернатив при сопоставимом качестве для поиска и суммаризации новостей. Для бесплатного продукта это критично.
Та же прагматика видна и в хранении переводов: мультиязычные версии статьи лежат прямо в JSON-поле записи, что ускоряет доступ и упрощает масштабирование на новые языки. Самый показательный компромисс — автоматическая разметка тегов. Вместо LLM автор использовал keyword matching по 47 темам и примерно 600 ключевым словам на английском и русском.
Такой подход дает около 85% точности, работает меньше миллисекунды на статью и не тратит токены вообще. На фоне всеобщего увлечения «засунуть нейросеть в каждый этап» это выглядит как взрослая инженерная позиция: AI нужен там, где он добавляет ценность, а не просто выглядит модно.
Что это значит
Этот кейс хорошо показывает, что новостной AI-продукт сегодня — это не только модель, которая умеет пересказывать тексты. Настоящая ценность появляется там, где есть надежный сбор данных, нормальная структура, понятный API и протокол вроде MCP для подключения ассистентов. Для медиа, ресерч-команд и внутренних аналитических сервисов это сигнал: из обычной ленты можно сделать рабочую инфраструктуру для живых дайджестов, поиска и автоматизированных ответов.