Habr AI→ оригинал

أظهرت MTS كيف تم توصيل OpenClaw بروبوت وإحضار وكيل ذكاء اصطناعي للعالم المادي

اختبرت MWS OpenClaw ليس فقط في المتصفحات والتطبيقات، بل أيضاً على الأجهزة الحقيقية. قام الفريق بتوصيل وكيل بروبوت Unitree G1 من خلال طبقة برمجية تترجم الأوامر إ

أظهرت MTS كيف تم توصيل OpenClaw بروبوت وإحضار وكيل ذكاء اصطناعي للعالم المادي
Источник: Habr AI. Коллаж: Hamidun News.

OpenClaw показал, что автономный агент можно вывести из браузера в физический мир гораздо быстрее, чем принято думать. Команда MWS взяла open-source-оркестратор, который обычно управляет компьютером и приложениями, и связала его с роботом через простую программную прослойку. В результате агент начал не только выполнять цифровые задачи, но и отдавать команды реальному устройству, ориентируясь по видеопотоку и мультимодальной модели.

Идея не в том, чтобы заменить полноценную робототехнику, а в том, чтобы дешево и быстро собрать рабочий прототип Physical AI. Сам OpenClaw стал заметным проектом в ноябре 2025 года, когда разработчик Питер Штайнбергер представил orchestration layer для автономной работы с компьютером. Агент получает инструкцию в мессенджере, разбивает ее на шаги, переключается между приложениями, сохраняет контекст и при необходимости использует любую совместимую LLM.

Именно эта независимость от конкретной модели делает систему удобной для экспериментов: можно менять движок рассуждений, не переписывая верхний слой автоматизации. Для разработчиков это редкая комбинация: низкий порог входа, гибкость по моделям и уже готовая логика выполнения многосоставных задач. У такого подхода есть очевидный риск: если ставить OpenClaw прямо на личный ноутбук, агент фактически получает широкий доступ ко всей системе.

В MWS предложили более безопасный вариант — запускать его в изолированной виртуальной машине в облаке. Для этого используют готовый образ Ubuntu с преднастроенным OpenClaw, а для базового сценария хватает конфигурации на 2 vCPU и 8 ГБ RAM. Дальше остается выдать сервисный аккаунт, поднять API-ключ и подключить LLM через OpenAI-совместимый endpoint GPT Model Hub.

То есть вместо ручной сборки среды разработчик получает почти кнопочный старт. Это важно не только ради удобства: в отдельной среде безопаснее тестировать сценарии, где агент может сам открывать процессы, менять состояние системы и хранить контекст рабочих сессий. Самый интересный момент начался там, где обычно заканчиваются статьи про агентные интерфейсы: на уровне железа.

В MWS взяли гуманоидного Unitree G1, который умеет ходить, держать баланс и реагировать на окружение, но сам по себе не является «умным» агентом. Вместо сложной VLA-архитектуры команда просто перехватила логику управления пультом: OpenClaw отправляет команды в промежуточный слой, а тот преобразует их в сигналы, понятные роботу. По той же схеме можно подключать не только дорогого гуманоидного робота, но и любое устройство с API или радиопультом — от тележки до игрушечной собаки.

Ключевая мысль здесь в том, что интеллектуальный слой оказывается отделен от исполнительного механизма, а значит, один и тот же агент можно переносить между разными типами устройств. Чтобы агент не действовал вслепую, видеопоток с камеры робота подали в OpenClaw, а интерпретацию сцены отдали мультимодальной модели kimi-2.5.

Она распознает объекты, оценивает обстановку и помогает выбрать следующее действие: двигаться вперед, остановиться, обойти препятствие или выполнить простую команду в пространстве. Важно, что для демонстрации не понадобились ни MCP-серверы, ни тяжеловесные цепочки рассуждений, ни отдельная робототехническая платформа. По сути, команда собрала минимальный мост между LLM-агентом, зрением и исполнительным устройством, показав, что порог входа в Physical AI сейчас заметно ниже, чем многие ожидали.

И именно в этом ценность кейса: он показывает не академическую модель будущего, а инженерный рецепт, который можно повторить с доступными компонентами уже сейчас. Практический вывод простой: OpenClaw уже можно использовать не только для писем, файлов и веб-интерфейсов, но и как универсальный управляющий слой для физических устройств. Это еще не замена полноценных Vision-Language-Action систем и не путь к надежной промышленной автономии, зато очень быстрый способ проверить сценарий, собрать демо или запустить прикладной прототип.

Для рынка это важный сигнал: связка облачной LLM, видеопотока и простого control API постепенно превращает Physical AI из исследовательской экзотики в инженерный инструмент.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…