Habr AI→ оригинал

Vibe coding sin AI slop: cómo el equipo de targetai multiplicó por 12 la velocidad de desarrollo

El vibe coding se ha convertido en la principal tendencia entre los desarrolladores, pero también ha generado AI slop a gran escala: código generado por AI sin

Vibe coding sin AI slop: cómo el equipo de targetai multiplicó por 12 la velocidad de desarrollo
Источник: Habr AI. Коллаж: Hamidun News.

Вайб-кодинг — это не про то, чтобы дать ИИ написать весь код и нажать «деплой». Это умение работать с языковыми моделями как с очень быстрым, но иногда галлюцинирующим junior-разработчиком: задавать правильные вопросы, проверять вывод, удерживать архитектурное видение в голове. Команда targetai провела несколько месяцев, отрабатывая этот баланс на реальных проектах, и зафиксировала результат: ускорение в 8–12 раз без потери качества — если делать всё правильно.

Само понятие «вайб-кодинг» ввёл в оборот Андрей Карпати в начале 2025 года. Идея проста: вместо того чтобы писать каждую строку вручную, разработчик описывает намерение на естественном языке, а LLM-инструмент — Cursor, GitHub Copilot, Claude Code, Cline — генерирует реализацию. Скорость итераций возрастает в разы: первый рабочий прототип можно сделать за часы вместо недель.

Проблема в том, что вместе с ростом популярности подхода пришло его тёмное отражение — нейрослоп. Это код, который выглядит убедительно, компилируется, проходит базовые тесты, но через три месяца превращается в неподдерживаемую кашу: никто из команды не понимает, почему именно так написана та или иная часть. LLM не объясняет своих архитектурных решений — он просто их принимает.

Инженеры targetai задались вопросом: можно ли систематизировать работу с LLM так, чтобы получать скорость без накопления технического долга? Их ответ — да, но это требует конкретных практик. Первая: LLM лучше всего работает на задачах с жёстко ограниченным контекстом.

Не «сделай фичу авторизации», а «реализуй функцию validateToken в файле auth/utils.ts, которая принимает JWT-строку и возвращает userId или null при невалидном токене». Вторая: code review нельзя делегировать самой модели.

Нужен человек, который понимает, что именно проверяет — и почему определённый код плох, а не просто как выглядит. Третья: архитектурные решения принимаются до того, как ИИ начинает генерировать реализацию. ИИ — исполнитель, а не проектировщик.

Цифры по итогам экспериментов: цикл разработки новой функциональности сократился в 8–12 раз — с нескольких дней до нескольких часов. Количество итераций до деплоя уменьшилось. Принципиально важно то, что уровень постпродакшн-инцидентов не вырос.

Это контраргумент самому распространённому страху: что ИИ-ускорение неизбежно означает рост числа багов в проде. При правильной методике — не означает. В targetai нет отдельной позиции AI-engineer или prompt engineer: к этим практикам команда пришла органически, через ошибки и итерации.

На практике подход выглядит так. Каждый разработчик использует LLM как персонального парного программиста, но с правилами гигиены. Никакого копирования сгенерированного кода без построчного чтения.

Никаких размытых запросов — лучше три точечных промпта, чем один расплывчатый. Тесты пишутся до генерации реализации: это немедленно отсекает нерабочие варианты уже на этапе промптинга. Документация к внутренней кодовой базе хранится в машинно-читаемом формате и загружается в контекст автоматически — это значительно повышает точность генерации в доменно-специфичных задачах.

Вайб-кодинг как практика вышел за пределы хайп-цикла и превращается в базовый инженерный навык — такой же, как умение читать stack trace или писать понятный pull request. Вопрос больше не в том, использовать ли языковые модели в разработке, а в том, насколько осознанно. Опыт targetai показывает: при правильно выстроенных рабочих процессах ИИ-ассистент не заменяет инженера — он умножает его производительность кратно.

Цена этого умножения — дисциплина, критическое мышление и готовность не доверять красивому коду только потому, что он написан быстро.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…