Apple تحضر وضع Siri في كاميرا iPhone وتعزز Visual Intelligence في iOS 27
قد تجعل Apple كاميرا iPhone بابًا جديدًا للدخول إلى Siri. في iOS 27، تخطط الشركة لنقل Visual Intelligence مباشرة إلى تطبيق الكاميرا، وإضافة وضع Siri مخصص، وتوسي

Apple собирается встроить AI глубже в камеру iPhone: по данным Bloomberg, в iOS 27 может появиться отдельный режим Siri рядом с привычными режимами съёмки. Если планы не изменятся, Visual Intelligence перестанет быть спрятанной функцией и станет заметной частью основной камеры.
Камера как вход в
Siri Сейчас Visual Intelligence на iPhone привязана к Camera Control и альтернативным обходным путям вроде Control Center или Action button на совместимых моделях. Для обычного пользователя это не самый очевидный сценарий: функция есть, но она живёт отдельно от места, где люди чаще всего работают с изображением, — самого приложения Camera. Apple, похоже, хочет исправить именно этот разрыв и сделать AI не дополнительным жестом, а элементом интерфейса, который виден сразу.
По данным Bloomberg, Apple перенесёт Visual Intelligence прямо в камеру и оформит её как новый режим Siri рядом с обычными режимами съёмки. Это важный сдвиг в логике продукта: вместо того чтобы объяснять, где искать умные функции, компания делает камеру точкой входа в них. Для Apple это ещё и способ лучше показать Apple Intelligence в ежедневном использовании, а не в отдельных демо-сценариях, которые легко пропустить после первой настройки устройства.
Что добавят в
Visual Intelligence Главное обновление — не только новый ярлык в интерфейсе, но и расширение самих задач. Bloomberg пишет, что iOS 27 должна научить систему считывать этикетки с пищевой ценностью на упаковке еды и сразу заносить данные о питании, а также распознавать контактную информацию и отправлять её в приложение Contacts. Иными словами, камера всё сильнее превращается из инструмента съёмки в слой действия поверх реального мира: навёл, распознал, сохранил, пошёл дальше.
- Сканирование этикеток с пищевой ценностью Перенос контактов с визиток и печатных материалов в Contacts Более быстрый запуск Visual Intelligence прямо из Camera * Вывод AI-функций в основной интерфейс, а не в скрытый жест На практике это выглядит как попытка убрать лишние шаги между распознаванием и действием. Сейчас многие visual AI-функции в смартфонах впечатляют на презентации, но редко становятся привычным инструментом: слишком непонятно, где они находятся и в какой момент их запускать. Apple, судя по утечке, делает ставку не на экзотику, а на бытовые сценарии — считать состав продукта, сохранить номер с бумажной карточки, быстрее понять, что именно видит камера и что с этим можно сделать дальше в экосистеме iPhone.
Контекст iOS 27
История с камерой важна ещё и потому, что она укладывается в более широкий разворот Apple вокруг Siri. Ранее Bloomberg уже сообщал, что в iOS 27 компания готовит более глубокую переработку ассистента: новый интерфейс, больше интеграций на уровне системы и более заметную роль Apple Intelligence в повседневных сценариях. Режим Siri в камере выглядит как один из самых понятных способов показать этот апгрейд массовой аудитории без отдельного обучения и без сложных голосовых команд.
Официально Apple пока ничего не анонсировала, поэтому детали ещё могут измениться к релизу. Но временное окно уже понятно: WWDC26 начнётся 8 июня 2026 года, и именно там компания обычно показывает ключевые версии iOS и новые AI-функции. Если утечка верна, Apple попытается решить две задачи сразу — прокачать Siri и одновременно дать Visual Intelligence более заметное место внутри iPhone, где она сможет реально влиять на ежедневные привычки пользователей.
Что это значит
Apple делает ставку не на отдельное AI-приложение, а на встраивание интеллекта в самые частые действия на смартфоне. Если Siri действительно зайдёт в камеру как полноценный режим, борьба за mobile AI всё больше сместится от чат-ботов к интерфейсам, где распознавание, поиск и сохранение данных происходят в один жест.