SkillMarket بنت سوق مهارات لوكلاء الذكاء الاصطناعي على FastAPI و Claude Sonnet
قدمت SkillMarket نموذجا أوليا لسوق مهارات متخصصة في المجال لوكلاء الذكاء الاصطناعي. الفكرة هي أن يصف المحامون والمتخصصون في الخدمات اللوجستية والمهنيون الآخرون

SkillMarket показал MVP маркетплейса доменных навыков для AI-агентов, собранный на FastAPI всего за несколько недель. Проект пытается решить старую проблему генеративных моделей: в общих задачах они полезны, но в узких профессиональных сценариях без человеческой экспертизы быстро начинают ошибаться.
Откуда взялась идея
Команда проекта описывает знакомый для многих компаний сценарий: AI-агенты неплохо справляются с кодом, шаблонными письмами и внутренней рутиной, но сыпятся, когда нужно работать в предметной области с кучей нюансов. В статье приводятся примеры из арбитража и налогов по УСН, где недостаточно просто «умной модели». Нужен последовательный способ мышления практикующего эксперта, иначе LLM начинает галлюцинировать и выдавать опасно неточные ответы.
Отсюда и родилась гипотеза: вместо того чтобы каждый раз сажать рядом с разработчиком дорогого senior-специалиста и вручную собирать chain-of-thought промпты, можно превратить этот опыт в отдельный цифровой продукт. Юрист, логист или другой отраслевой эксперт описывает свой рабочий алгоритм, а бизнес затем покупает его как готовый навык для корпоративного агента. По сути, SkillMarket предлагает вынести промпт-инжиниринг из ремесла команды разработки в отдельный рынок доменной экспертизы.
Как устроен MVP Архитектура у проекта максимально прагматичная и без лишних слоев.
Для бэкенда выбрали Python и FastAPI, для хранения — PostgreSQL и SQLAlchemy, асинхронные задачи отдали Celery и Redis, а интерфейс собрали на Vanilla JS с Vite. Инфраструктура упакована в Docker Compose, то есть команда сознательно не пошла в микросервисы ради MVP. Это выглядит логично: основная ценность тут не в распределенной платформе, а в скорости проверки самой гипотезы.
- FastAPI и OpenAPI — для API и будущих интеграций PostgreSQL, SQLAlchemy и Alembic — для данных и миграций Celery и Redis — для фоновых обращений к LLM Vanilla JS, Vite, Sortable.js и Marked.js — для легкого фронтенда Docker Compose — для быстрого разворачивания всей системы Сам процесс создания навыка тоже сделали не техническим, а «человеческим». Эксперту не нужно знать, что такое few-shot prompting или JSON schema: он просто заходит в конструктор и свободным текстом описывает, как решает задачу в реальной работе. Дальше Celery отправляет этот черновик в Claude Sonnet через OpenRouter, а модель уже упаковывает поток мыслей в структурированный системный промпт с названием, описанием, назначением, тегами и оценкой объема токенов.
Как фильтруют качество Следующая проблема — модерация.
Если просто открыть витрину для продажи промптов, она быстро превратится в склад сомнительных заготовок без реальной пользы для бизнеса. Поэтому после публикации навыка SkillMarket запускает автоматическую проверку сразу через Claude Sonnet и GPT-4o. Обе модели выставляют баллы по нескольким критериям, а слабые карточки либо уходят на ручную проверку, либо отбрасываются еще на старте.
clarity — насколько четко описаны инструкции completeness — насколько полно покрыт алгоритм domain_accuracy — нет ли явных ошибок в предметной логике reusability — можно ли применять навык в разных компаниях * overall_score — сводный балл для решения о публикации Отдельно команда продумала и монетизацию. Для платежей подключили ЮKassa: покупатель пополняет баланс, приобретает навык, платформа удерживает комиссию в 20%, а остальное уходит автору на внутренний счет. Автор статьи пишет, что после первой публикации о проекте начали приходить не только IT-специалисты, но и эксперты из других сфер.
Для MVP это важный сигнал: модель интересна не только разработчикам, но и самим носителям прикладной экспертизы.
«Сдавать свои мозги в аренду»
Что это значит
Если подобная модель взлетит, рынок AI-агентов может сдвинуться от продажи «универсальных ботов» к продаже проверенных узкоспециализированных навыков. Для бизнеса это удобный сценарий: не выращивать внутри каждой команды собственного промпт-инженера, а покупать готовые экспертные блоки почти так же, как сегодня ставят библиотеки через npm или pip.