Habr AI→ оригинал

MTS mostró cómo se conectó OpenClaw a un robot y se llevó un agente de IA al mundo físico

MWS probó OpenClaw no solo en navegadores y aplicaciones, sino también en hardware real. El equipo conectó un agente al robot Unitree G1 a través de una capa de

MTS mostró cómo se conectó OpenClaw a un robot y se llevó un agente de IA al mundo físico
Источник: Habr AI. Коллаж: Hamidun News.

OpenClaw показал, что автономный агент можно вывести из браузера в физический мир гораздо быстрее, чем принято думать. Команда MWS взяла open-source-оркестратор, который обычно управляет компьютером и приложениями, и связала его с роботом через простую программную прослойку. В результате агент начал не только выполнять цифровые задачи, но и отдавать команды реальному устройству, ориентируясь по видеопотоку и мультимодальной модели.

Идея не в том, чтобы заменить полноценную робототехнику, а в том, чтобы дешево и быстро собрать рабочий прототип Physical AI. Сам OpenClaw стал заметным проектом в ноябре 2025 года, когда разработчик Питер Штайнбергер представил orchestration layer для автономной работы с компьютером. Агент получает инструкцию в мессенджере, разбивает ее на шаги, переключается между приложениями, сохраняет контекст и при необходимости использует любую совместимую LLM.

Именно эта независимость от конкретной модели делает систему удобной для экспериментов: можно менять движок рассуждений, не переписывая верхний слой автоматизации. Для разработчиков это редкая комбинация: низкий порог входа, гибкость по моделям и уже готовая логика выполнения многосоставных задач. У такого подхода есть очевидный риск: если ставить OpenClaw прямо на личный ноутбук, агент фактически получает широкий доступ ко всей системе.

В MWS предложили более безопасный вариант — запускать его в изолированной виртуальной машине в облаке. Для этого используют готовый образ Ubuntu с преднастроенным OpenClaw, а для базового сценария хватает конфигурации на 2 vCPU и 8 ГБ RAM. Дальше остается выдать сервисный аккаунт, поднять API-ключ и подключить LLM через OpenAI-совместимый endpoint GPT Model Hub.

То есть вместо ручной сборки среды разработчик получает почти кнопочный старт. Это важно не только ради удобства: в отдельной среде безопаснее тестировать сценарии, где агент может сам открывать процессы, менять состояние системы и хранить контекст рабочих сессий. Самый интересный момент начался там, где обычно заканчиваются статьи про агентные интерфейсы: на уровне железа.

В MWS взяли гуманоидного Unitree G1, который умеет ходить, держать баланс и реагировать на окружение, но сам по себе не является «умным» агентом. Вместо сложной VLA-архитектуры команда просто перехватила логику управления пультом: OpenClaw отправляет команды в промежуточный слой, а тот преобразует их в сигналы, понятные роботу. По той же схеме можно подключать не только дорогого гуманоидного робота, но и любое устройство с API или радиопультом — от тележки до игрушечной собаки.

Ключевая мысль здесь в том, что интеллектуальный слой оказывается отделен от исполнительного механизма, а значит, один и тот же агент можно переносить между разными типами устройств. Чтобы агент не действовал вслепую, видеопоток с камеры робота подали в OpenClaw, а интерпретацию сцены отдали мультимодальной модели kimi-2.5.

Она распознает объекты, оценивает обстановку и помогает выбрать следующее действие: двигаться вперед, остановиться, обойти препятствие или выполнить простую команду в пространстве. Важно, что для демонстрации не понадобились ни MCP-серверы, ни тяжеловесные цепочки рассуждений, ни отдельная робототехническая платформа. По сути, команда собрала минимальный мост между LLM-агентом, зрением и исполнительным устройством, показав, что порог входа в Physical AI сейчас заметно ниже, чем многие ожидали.

И именно в этом ценность кейса: он показывает не академическую модель будущего, а инженерный рецепт, который можно повторить с доступными компонентами уже сейчас. Практический вывод простой: OpenClaw уже можно использовать не только для писем, файлов и веб-интерфейсов, но и как универсальный управляющий слой для физических устройств. Это еще не замена полноценных Vision-Language-Action систем и не путь к надежной промышленной автономии, зато очень быстрый способ проверить сценарий, собрать демо или запустить прикладной прототип.

Для рынка это важный сигнал: связка облачной LLM, видеопотока и простого control API постепенно превращает Physical AI из исследовательской экзотики в инженерный инструмент.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…