Apple готовит режим Siri в камере iPhone и усиливает Visual Intelligence в iOS 27
Apple может сделать камеру iPhone новой точкой входа в Siri. В iOS 27 компания, по данным Bloomberg, собирается перенести Visual Intelligence прямо в приложение

Apple собирается встроить AI глубже в камеру iPhone: по данным Bloomberg, в iOS 27 может появиться отдельный режим Siri рядом с привычными режимами съёмки. Если планы не изменятся, Visual Intelligence перестанет быть спрятанной функцией и станет заметной частью основной камеры.
Камера как вход в
Siri Сейчас Visual Intelligence на iPhone привязана к Camera Control и альтернативным обходным путям вроде Control Center или Action button на совместимых моделях. Для обычного пользователя это не самый очевидный сценарий: функция есть, но она живёт отдельно от места, где люди чаще всего работают с изображением, — самого приложения Camera. Apple, похоже, хочет исправить именно этот разрыв и сделать AI не дополнительным жестом, а элементом интерфейса, который виден сразу.
По данным Bloomberg, Apple перенесёт Visual Intelligence прямо в камеру и оформит её как новый режим Siri рядом с обычными режимами съёмки. Это важный сдвиг в логике продукта: вместо того чтобы объяснять, где искать умные функции, компания делает камеру точкой входа в них. Для Apple это ещё и способ лучше показать Apple Intelligence в ежедневном использовании, а не в отдельных демо-сценариях, которые легко пропустить после первой настройки устройства.
Что добавят в
Visual Intelligence Главное обновление — не только новый ярлык в интерфейсе, но и расширение самих задач. Bloomberg пишет, что iOS 27 должна научить систему считывать этикетки с пищевой ценностью на упаковке еды и сразу заносить данные о питании, а также распознавать контактную информацию и отправлять её в приложение Contacts. Иными словами, камера всё сильнее превращается из инструмента съёмки в слой действия поверх реального мира: навёл, распознал, сохранил, пошёл дальше.
- Сканирование этикеток с пищевой ценностью Перенос контактов с визиток и печатных материалов в Contacts Более быстрый запуск Visual Intelligence прямо из Camera * Вывод AI-функций в основной интерфейс, а не в скрытый жест На практике это выглядит как попытка убрать лишние шаги между распознаванием и действием. Сейчас многие visual AI-функции в смартфонах впечатляют на презентации, но редко становятся привычным инструментом: слишком непонятно, где они находятся и в какой момент их запускать. Apple, судя по утечке, делает ставку не на экзотику, а на бытовые сценарии — считать состав продукта, сохранить номер с бумажной карточки, быстрее понять, что именно видит камера и что с этим можно сделать дальше в экосистеме iPhone.
Контекст iOS 27
История с камерой важна ещё и потому, что она укладывается в более широкий разворот Apple вокруг Siri. Ранее Bloomberg уже сообщал, что в iOS 27 компания готовит более глубокую переработку ассистента: новый интерфейс, больше интеграций на уровне системы и более заметную роль Apple Intelligence в повседневных сценариях. Режим Siri в камере выглядит как один из самых понятных способов показать этот апгрейд массовой аудитории без отдельного обучения и без сложных голосовых команд.
Официально Apple пока ничего не анонсировала, поэтому детали ещё могут измениться к релизу. Но временное окно уже понятно: WWDC26 начнётся 8 июня 2026 года, и именно там компания обычно показывает ключевые версии iOS и новые AI-функции. Если утечка верна, Apple попытается решить две задачи сразу — прокачать Siri и одновременно дать Visual Intelligence более заметное место внутри iPhone, где она сможет реально влиять на ежедневные привычки пользователей.
Что это значит
Apple делает ставку не на отдельное AI-приложение, а на встраивание интеллекта в самые частые действия на смартфоне. Если Siri действительно зайдёт в камеру как полноценный режим, борьба за mobile AI всё больше сместится от чат-ботов к интерфейсам, где распознавание, поиск и сохранение данных происходят в один жест.