Habr AI→ оригинал

Diasoft automatizó pruebas de API y eventos con AI y desplazó el rol de QA hacia la lógica de negocio

Diasoft integró un agente LLM en Digital Q.DevOps y automatizó la creación de pruebas para API y eventos complejos. El sistema recibe un caso de prueba en lengu

◐ Слушать статью

Компания Diasoft рассказала, как встроила LLM-агента в конвейер разработки и почти сняла с QA-команд ручное написание автотестов для сложных API и событий. Система принимает тест-кейс на бизнес-языке, сама собирает нужные контракты, генерирует код, запускает его на стенде и дорабатывает до стабильного прохождения.

Почему шаблонов было мало

Раньше в компании автоматически покрывались в основном типовые CRUD-операции и стандартные события. Для таких сценариев хватало шаблонов, потому что логика повторялась от сервиса к сервису. Но реальная ценность продуктов лежит не в простом чтении и записи данных, а в бизнес-операциях: расчете процентов, применении комиссий, обработке лимитов, запуске цепочек связанных действий.

Именно эти части обычно сложнее всего тестировать, и именно они сильнее всего тормозили релизы, когда тесты приходилось писать вручную. В Diasoft опираются на low-code платформу Digital Q.Archer, где хранятся контракты API и событий.

Это важно, потому что LLM работает не по случайным описаниям и не по устаревшей документации, а по формализованной модели сервиса. За счет этого система лучше понимает, какие эндпоинты и события действительно относятся к сценарию, а тестировщик не тратит время на ручной разбор десятков интерфейсов и быстрее понимает контекст самой бизнес-операции.

Как работает агент

Ключевая идея в том, что ИИ не вынесен в отдельный чат рядом с разработкой, а встроен в платформу Digital Q.DevOps как полноценный агент автотестирования. Оркестратор направляет модель, проверяет код на внутренние правила, отправляет тест на реальный стенд и возвращает ошибки обратно в цикл генерации. За счет этого LLM не просто пишет черновик, а проходит тот же путь, который обычно проходит инженер при отладке.

«ИИ не просто пишет код “в стол”, он сразу же запускает его на тестовом стенде».

В общих чертах конвейер выглядит так: тестировщик выбирает сервис и формулирует кейс на языке бизнеса оркестратор подтягивает Swagger и JSON-схемы событий из Digital Q.Archer LLM отбирает релевантные эндпоинты и события для сценария модель генерирует Groovy-тест, а платформа валидирует его по доменным правилам * код гоняется на стенде, а при падении дорабатывается по логам, пока не пройдет стабильно После успешного прогона система добавляет служебные метки и публикует готовый тест в Git-репозиторий продукта. Для тестов выбран Groovy, потому что он близок к Java, на которой построена большая часть микросервисов компании, но сам подход не завязан на одном языке.

Отдельно в Diasoft подчеркивают сложность событийного тестирования: мало вызвать API, нужно еще поймать сообщение в брокере, проверить структуру и убедиться, что содержимое соответствует бизнес-сценарию и ожидаемому результату операции.

Как меняется роль QA

Самый заметный эффект — смещение роли тестировщика от написания кода к управлению требованиями. Теперь качество результата сильнее зависит от того, насколько точно специалист описал бизнес-сценарий: что должно произойти, при каких условиях, и какой результат считается корректным. Если инструкция размыта, модель выберет не те эндпоинты или проверит не те условия.

Если сценарий описан четко, путь до готового автотеста заметно сокращается. Именно формулировка становится новым рабочим инструментом автоматизации. Из этого вытекает и новая зона ответственности QA.

Тестировщику уже не так важно построчно вычитывать сгенерированный код, как важно проверить смысл assertions и убедиться, что тест действительно доказывает нужную бизнес-логику. По сути, QA становится приемщиком работы ИИ и экспертом по предметной области. Рутинного кодинга меньше, зато выше требования к пониманию продукта, контрактов интеграции и качества самих требований.

Это ближе к ревью сценария, чем к ручному программированию.

Что это значит

Diasoft показывает практический сценарий, где LLM полезна не как помощник для одиночного разработчика, а как часть управляемого инженерного конвейера. Если у компании уже есть формальные контракты, тестовые стенды и правила валидации, генерацию автотестов можно переводить из эксперимента в промышленный процесс — особенно для сложных API и событий, которые раньше почти всегда оставались ручной работой. Это особенно заметно в финансовых и интеграционных системах.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…