AI News→ оригинал

Apple и Qualcomm проектируют AI-агентов с ограничениями и обязательным подтверждением

Apple и Qualcomm двигают AI-помощников к формату, где они сами ходят по приложениям, бронируют сервисы и подготавливают покупки. Но ключевая идея не в полной ав

Apple и Qualcomm проектируют AI-агентов с ограничениями и обязательным подтверждением
Источник: AI News. Коллаж: Hamidun News.
◐ Слушать статью

Компании вокруг Apple и Qualcomm подводят AI-помощников к новому этапу: такие системы уже умеют ходить по приложениям, оформлять бронирования и доводить покупку почти до финального шага. Но вместо полной автономии производители, похоже, сознательно строят их с ограничениями, чтобы агент действовал быстро, но не бесконтрольно.

Агент, но не автопилот

Ранние отчёты о новых помощниках в экосистеме Apple и у партнёров Qualcomm описывают не обычный чат-бот, а систему, которая умеет сама перемещаться по интерфейсу. По данным Tom’s Guide, один из таких приватных бета-агентов мог открыть нужное приложение, пройти цепочку экранов, забронировать сервис или подготовить публикацию в соцсети. В одном из тестов он дошёл до окна оплаты и остановился перед последним подтверждением, передав решение пользователю.

Это важная разница по сравнению с привычными ассистентами, которые в основном отвечают текстом или открывают нужный экран. Новый класс помощников пытается брать на себя сам процесс: найти нужную кнопку, понять структуру приложения, заполнить поля, перейти между шагами и дойти до результата. Именно поэтому вопрос ограничений выходит на первый план: когда AI не просто советует, а реально нажимает кнопки, цена ошибки резко растёт.

Почему нужны рамки Логика производителей довольно простая.

Если агент ошибётся в диалоге, пользователь просто получит плохой ответ. Если ошибётся агент, который управляет интерфейсом, последствия уже другие: неверная покупка, лишний платёж, изменение аккаунта, отправка данных не туда, запуск ненужного звонка от имени пользователя или действие, которое нельзя быстро отменить. Поэтому в потребительских продуктах начинают закладывать модель human-in-the-loop: AI готовит действие, но критический шаг оставляет человеку.

Это совпадает с выводами исследования Apple, опубликованного в феврале 2026 года. Компания изучала, как люди хотят взаимодействовать с computer-use агентами, и пришла к важному выводу: пользователи готовы делегировать рутину, сравнение вариантов и длинные последовательности кликов, но не хотят терять контроль в рискованных сценариях. Особенно это касается платежей, звонков, доступа к чувствительным приложениям, изменения личных данных и любых необратимых действий, которые уже нельзя откатить одной кнопкой.

«Я не хочу, чтобы агент нажимал кнопку покупки без моего подтверждения, особенно если это необратимо».

В исследовании Apple также отдельно подчёркивается проблема неоднозначности. Если запрос можно трактовать по-разному, агент не должен молча выбирать один вариант в ситуации с высоким риском. Для навигации по сайту это может быть допустимо, а вот для покупки, перевода денег или доступа к системным функциям — уже нет. В таких случаях системе лучше остановиться, показать варианты и попросить уточнение, чем сделать неверный шаг от имени пользователя.

Где ставят барьеры

На практике ограничения для таких агентов выглядят не как одна большая кнопка «вкл/выкл», а как несколько уровней защиты, встроенных прямо в сценарий выполнения задачи. Сначала система понимает, что именно ей разрешено видеть и трогать. Затем она выполняет рутинные шаги самостоятельно. А когда доходит до денег, доступа к аккаунту, личных данных или перехода в более чувствительную часть устройства, включаются дополнительные проверки и подтверждения.

  • Платежи и другие чувствительные действия требуют отдельного подтверждения перед финальным шагом.
  • Доступ агента ограничивают по объёму: ему можно разрешить работать только с частью приложений, данных или экранов.
  • Приоритет смещают в сторону обработки на устройстве, чтобы не отправлять личные данные во внешнее облако без необходимости.
  • Для транзакций добавляют внешние контуры безопасности — например, аутентификацию платёжного партнёра, лимиты и дополнительную проверку. Такой подход уже просматривается и в материалах про Qualcomm-партнёров, и в исследованиях Apple по UX для агентов. Смысл не в том, чтобы сделать AI «слабее», а в том, чтобы заранее сузить поле ошибок и сохранить доверие. Пользователю не нужен помощник, который теоретически умеет всё, но в любой момент может зайти не в то приложение, получить лишний доступ или потратить деньги не туда. В массовом потребительском продукте предсказуемость почти важнее магии.

Что это значит

Похоже, первая волна массовых AI-агентов будет не полностью автономной, а полуавтономной: они возьмут на себя поиск, навигацию и подготовку действий, но оставят человеку последние решения в деньгах, приватности и доступе. Для рынка это хороший сигнал, потому что доверие здесь важнее эффектной демонстрации. Победят не те, кто даст агенту максимальную свободу, а те, кто аккуратно встроит ограничения так, чтобы помощник экономил время, не создавая новых рисков.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…