TechCrunch→ оригинал

Memories.ai تطور طبقة ذاكرة بصرية للأجهزة القابلة للارتداء والروبوتات

تبني شركة Memories.ai الناشئة نموذج ذاكرة بصرية واسع النطاق — طبقة بنية تحتية للـ AI الفيزيائي. ويمكن للنظام فهرسة تسجيلات الفيديو من العالم الحقيقي واسترجاعها،

Memories.ai تطور طبقة ذاكرة بصرية للأجهزة القابلة للارتداء والروبوتات
Источник: TechCrunch. Коллаж: Hamidun News.

Стартап Memories.ai анонсировал разработку крупной модели визуальной памяти — системы, которая позволит физическому ИИ индексировать и извлекать видеозаписанные воспоминания о реальном мире. По сути, команда строит то, чего не хватало носимым устройствам и роботам: способность не просто видеть, но и помнить.

Идея звучит просто, но техническая сложность огромна. Обычные языковые модели работают с текстом — они умеют запоминать и воспроизводить информацию в виде слов и символов. Видео устроено принципиально иначе: каждая секунда — тысячи кадров, пространственные отношения, движение объектов, временная последовательность событий.

Чтобы робот или умные очки могли вспомнить, где лежат ключи, или что происходило на кухне три часа назад, нужна специализированная архитектура, оптимизированная под визуальные данные. Memories.ai позиционирует свою разработку как инфраструктурный слой для физического ИИ — нового класса систем, действующих в реальном, а не цифровом мире.

Именно физический ИИ стоит за носимыми устройствами вроде Ray-Ban Meta и Humane AI Pin, а также за роботами-гуманоидами, которые активно выходят на рынок: Boston Dynamics, Figure, Agility Robotics. Все они страдают от одной и той же проблемы — отсутствия долгосрочной контекстной памяти о происходящем вокруг. Для носимых гаджетов визуальная память означает возможность ответить на вопрос «где я видел этого человека?»

или «когда я в последний раз был в этом кафе?» Для роботов — понять изменение обстановки, отследить перемещение объектов, избежать ошибок, которые совершались ранее. Без такого слоя физический ИИ функционирует как пациент с амнезией: каждый новый запуск с чистого листа, без накопленного опыта.

Команда не раскрывает технических деталей архитектуры и объёмов обучающих данных. Неизвестно, на каком этапе находится разработка и есть ли уже партнёры среди производителей железа. Тем не менее сам факт появления специализированных стартапов, ориентированных именно на визуальную память для физических устройств, говорит о том, что отрасль подошла к следующему барьеру масштабирования.

До сих пор большинство AI-стартапов фокусировались на языковых или мультимодальных моделях, работающих преимущественно с текстом и статичными изображениями. Видеопамять — гораздо более ресурсоёмкая задача, требующая новых подходов к сжатию, хранению и поиску. Крупные игроки вроде Google DeepMind и OpenAI работают над видеопониманием, но их продукты ориентированы на облачную обработку, а не на встроенные решения.

Memories.ai, судя по позиционированию, метит в другой сегмент: edge-решения, работающие непосредственно на устройстве. Это критически важно для роботов и носимых гаджетов, которые не могут позволить себе задержку облачного запроса каждый раз, когда нужно обратиться к прошлому опыту.

Если стартапу удастся реализовать заявленное, его модель может стать одним из ключевых компонентов стека физического ИИ — сопоставимым по значимости с появлением больших языковых моделей для текстовых ассистентов. Гонка за визуальную память только начинается.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…