Habr AI→ оригинал

Habr AI a publié le cas de Rozitta Parser : comment le vibe coding rogne sur le sommeil et le temps

Une architecte sans expérience en développement a raconté comment, avec l'aide de DeepSeek, Gemini et Claude, elle a transformé en six mois un simple parser Tel

Habr AI a publié le cas de Rozitta Parser : comment le vibe coding rogne sur le sommeil et le temps
Источник: Habr AI. Коллаж: Hamidun News.
◐ Слушать статью

На Habr AI вышел личный кейс о том, как попытка сохранить важный Telegram-чат превратилась в шестимесячную разработку собственного приложения. Архитектор без опыта в программировании собрала Rozitta Parser с помощью нескольких нейросетей и честно описала, сколько времени, сил и бытового ресурса уходит на такой вайбкодинг.

Как появился проект

История началась с простой задачи: автору нужно было выгрузить содержимое Telegram-группы, где старая информация должна была исчезнуть с началом нового потока. Для этого она попросила нейросеть написать парсер, хотя ещё недавно не знала, что такое Telethon, API-ключи и `pip install`. Быстрый скрипт решил локальную проблему, но почти сразу начал обрастать новыми требованиями: фильтрацией сообщений, скачиванием файлов, поддержкой разных чатов и более удобной формой запуска.

Дальше проект пошёл по типичному для вайбкодинга сценарию: одна AI-модель писала код, другая помогала структурировать запросы, третья искала альтернативные инструменты и объясняла, почему один стек лучше другого. DeepSeek использовался для первых версий и HTML-прототипов, NotebookLM — как вспомогательная база знаний, Gemini — для формулировки промптов, а Claude — для более тяжёлой сборки и рефакторинга. Из одноразового скрипта выросла полноценная настольная программа с собственным именем и маскотом — розовой робожабой Розиттой.

Во что вырос парсер

За полгода Rozitta Parser превратился в многомодульное приложение на Python с GUI, экспортом данных и локальной обработкой медиа. Автор отдельно подчёркивает, что проект ушёл далеко от исходной идеи «сохранить переписку»: теперь это инструмент, который пытается собрать из Telegram не просто архив, а удобную базу знаний для дальнейшей работы, чтения и загрузки в AI-сервисы вроде NotebookLM. Фактически речь уже идёт о персональном конвейере, который соединяет мессенджер, файловый архив и подготовку данных для последующего анализа.

  • Экспорт переписки в DOCX, JSON, Markdown и HTML Скачивание файлов, картинок и голосовых сообщений из чатов Локальное распознавание аудио через faster-whisper без облака * Разбиение больших выгрузок на чанки для загрузки в AI-сервисы Текущий стек выглядит уже вполне взрослым: Python 3.11, PySide6 для интерфейса, Telethon для работы с MTProto API, SQLite для хранения данных, python-docx для экспорта и faster-whisper для локального распознавания голосовых сообщений без облака. Приложение умеет работать с SOCKS5 и MTProto-прокси, а ещё нарезать большие выгрузки на чанки по 150 тысяч слов, чтобы обходить ограничения сторонних сервисов. По сути, это уже не «скрипт для себя», а сложный продукт, который приходится сопровождать как настоящий софт.

Цена и помощь Самая сильная часть текста — не техническая, а человеческая.

Автор называет такси до работы своим «налогом на усталость»: из-за ночных сессий с кодом она начала опаздывать, терять сон, тратить деньги на еду вне дома и выпадать из семейной жизни. В статье нет романтизации бесконечного билда. Наоборот, это история о том, как творческий азарт в AI-разработке легко превращается в режим «либо код, либо сон», особенно если проект растёт быстрее, чем твоё понимание архитектуры, Git и границ собственного времени.

«Налог на усталость» — не метафора.

Поворотным моментом стал выход проекта на GitHub и обращение за помощью в сообщество. После вопроса на Habr Q&A у приложения появился живой помощник, который занялся багами, интерфейсом, прокси, сборками и объяснением базовых процессов вроде GitHub Actions. Параллельно появилась интерактивная карта зависимостей модулей и более внятная документация. Один из главных выводов автора звучит жёстко: AI ускоряет старт, но на длинной дистанции не отменяет документацию, понимание языка и участие реальных разработчиков.

Что это значит

Кейс Rozitta Parser хорошо показывает нынешний предел вайбкодинга: войти в разработку стало проще, чем когда-либо, но цена ошибки тоже выросла. Нейросети уже помогают новичкам собрать рабочий продукт, однако без структуры, отдыха и человеческой поддержки такой проект быстро начинает съедать не только время, но и всю остальную жизнь.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…