AI News→ оригинал

Apple and Qualcomm develop AI agents with guardrails and mandatory confirmation

Apple and Qualcomm are moving AI assistants toward a model where they can navigate apps on their own, book services, and prepare purchases. But the core idea is

Apple and Qualcomm develop AI agents with guardrails and mandatory confirmation
Источник: AI News. Коллаж: Hamidun News.
◐ Слушать статью

Компании вокруг Apple и Qualcomm подводят AI-помощников к новому этапу: такие системы уже умеют ходить по приложениям, оформлять бронирования и доводить покупку почти до финального шага. Но вместо полной автономии производители, похоже, сознательно строят их с ограничениями, чтобы агент действовал быстро, но не бесконтрольно.

Агент, но не автопилот

Ранние отчёты о новых помощниках в экосистеме Apple и у партнёров Qualcomm описывают не обычный чат-бот, а систему, которая умеет сама перемещаться по интерфейсу. По данным Tom’s Guide, один из таких приватных бета-агентов мог открыть нужное приложение, пройти цепочку экранов, забронировать сервис или подготовить публикацию в соцсети. В одном из тестов он дошёл до окна оплаты и остановился перед последним подтверждением, передав решение пользователю.

Это важная разница по сравнению с привычными ассистентами, которые в основном отвечают текстом или открывают нужный экран. Новый класс помощников пытается брать на себя сам процесс: найти нужную кнопку, понять структуру приложения, заполнить поля, перейти между шагами и дойти до результата. Именно поэтому вопрос ограничений выходит на первый план: когда AI не просто советует, а реально нажимает кнопки, цена ошибки резко растёт.

Почему нужны рамки Логика производителей довольно простая.

Если агент ошибётся в диалоге, пользователь просто получит плохой ответ. Если ошибётся агент, который управляет интерфейсом, последствия уже другие: неверная покупка, лишний платёж, изменение аккаунта, отправка данных не туда, запуск ненужного звонка от имени пользователя или действие, которое нельзя быстро отменить. Поэтому в потребительских продуктах начинают закладывать модель human-in-the-loop: AI готовит действие, но критический шаг оставляет человеку.

Это совпадает с выводами исследования Apple, опубликованного в феврале 2026 года. Компания изучала, как люди хотят взаимодействовать с computer-use агентами, и пришла к важному выводу: пользователи готовы делегировать рутину, сравнение вариантов и длинные последовательности кликов, но не хотят терять контроль в рискованных сценариях. Особенно это касается платежей, звонков, доступа к чувствительным приложениям, изменения личных данных и любых необратимых действий, которые уже нельзя откатить одной кнопкой.

«Я не хочу, чтобы агент нажимал кнопку покупки без моего подтверждения, особенно если это необратимо».

В исследовании Apple также отдельно подчёркивается проблема неоднозначности. Если запрос можно трактовать по-разному, агент не должен молча выбирать один вариант в ситуации с высоким риском. Для навигации по сайту это может быть допустимо, а вот для покупки, перевода денег или доступа к системным функциям — уже нет. В таких случаях системе лучше остановиться, показать варианты и попросить уточнение, чем сделать неверный шаг от имени пользователя.

Где ставят барьеры

На практике ограничения для таких агентов выглядят не как одна большая кнопка «вкл/выкл», а как несколько уровней защиты, встроенных прямо в сценарий выполнения задачи. Сначала система понимает, что именно ей разрешено видеть и трогать. Затем она выполняет рутинные шаги самостоятельно. А когда доходит до денег, доступа к аккаунту, личных данных или перехода в более чувствительную часть устройства, включаются дополнительные проверки и подтверждения.

  • Платежи и другие чувствительные действия требуют отдельного подтверждения перед финальным шагом.
  • Доступ агента ограничивают по объёму: ему можно разрешить работать только с частью приложений, данных или экранов.
  • Приоритет смещают в сторону обработки на устройстве, чтобы не отправлять личные данные во внешнее облако без необходимости.
  • Для транзакций добавляют внешние контуры безопасности — например, аутентификацию платёжного партнёра, лимиты и дополнительную проверку. Такой подход уже просматривается и в материалах про Qualcomm-партнёров, и в исследованиях Apple по UX для агентов. Смысл не в том, чтобы сделать AI «слабее», а в том, чтобы заранее сузить поле ошибок и сохранить доверие. Пользователю не нужен помощник, который теоретически умеет всё, но в любой момент может зайти не в то приложение, получить лишний доступ или потратить деньги не туда. В массовом потребительском продукте предсказуемость почти важнее магии.

Что это значит

Похоже, первая волна массовых AI-агентов будет не полностью автономной, а полуавтономной: они возьмут на себя поиск, навигацию и подготовку действий, но оставят человеку последние решения в деньгах, приватности и доступе. Для рынка это хороший сигнал, потому что доверие здесь важнее эффектной демонстрации. Победят не те, кто даст агенту максимальную свободу, а те, кто аккуратно встроит ограничения так, чтобы помощник экономил время, не создавая новых рисков.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…