Google تتيح لـ Gemini API دمج Search وMaps والوظائف المخصصة في طلب واحد
وسّعت Google واجهة Gemini API، وأصبحت تتيح دمج الأدوات المدمجة مثل Search وMaps مع الوظائف المخصصة ضمن طلب واحد. وهذا يتيح بناء سلاسل وكيلة بقدر أقل من الكود ال

Google расширила Gemini API: теперь встроенные инструменты вроде Google Search и Google Maps можно комбинировать с пользовательскими функциями в одном запросе. Это снимает часть ручной обвязки вокруг агентных сценариев и приближает API к формату, где модель сама координирует поиск, вызовы кода и переходы между шагами.
Что изменилось
Обновление, анонсированное Google в марте 2026 года, добавляет в Gemini API более цельную работу с инструментами. Раньше разработчикам часто приходилось отдельно организовывать поиск, отдельно прокладывать маршрут к картам или внешним данным, а затем вручную склеивать ответы в приложении. Теперь часть этой логики можно собрать внутри одного вызова: модель получает доступ к встроенным сервисам Google и одновременно умеет обращаться к пользовательским функциям, если сценарий требует действий за пределами стандартного набора.
В практическом разборе показано пять демо, которые постепенно усложняют задачу. Логика начинается с базовой связки инструментов, а затем переходит к многошаговым агентным цепочкам, где важны передача контекста между этапами, идентификация параллельных вызовов и корректное продолжение диалога после ответа внешней функции. Для разработчиков это важный сдвиг: оркестрация меньше размазывается по бэкенду и сильнее смещается в саму модельную сессию.
Это делает поведение цепочки заметно прозрачнее для отладки и тестирования.
Как устроен вызов
Ключевая идея в том, что Gemini теперь может в одном проходе решать, когда ей нужен веб-поиск, когда — геоданные из Maps, а когда — пользовательская функция приложения. Если вопрос требует нескольких действий, модель может держать общий контекст, сопоставлять результаты разных инструментов и продолжать цепочку без полного перезапуска сценария. Отдельный акцент сделан на parallel tool IDs и context circulation: это помогает не путать ответы инструментов и переносить нужные данные в следующий шаг.
- Google Search подтягивает свежую информацию по теме запроса Google Maps добавляет адреса, геоконтекст и данные о местах Custom functions подключают внутреннюю бизнес-логику приложения * Multi-step chains позволяют строить сценарии из нескольких последовательных действий Такая схема удобна для сценариев, где ответ нельзя получить одним источником. Например, ассистент может сначала найти свежую информацию через Search, затем проверить точку на карте через Maps, после этого вызвать внутреннюю функцию бронирования, расчёта или проверки доступности. Раньше подобную последовательность чаще приходилось раскладывать на несколько запросов и вручную поддерживать состояние между ними. Для сервисов с реальными действиями это заметно упрощает архитектуру.
Зачем это разработчикам Главная выгода — меньше клея между моделью и продуктовой логикой.
Вместо того чтобы писать отдельный оркестратор для каждой комбинации инструментов, команда может описать функции, отдать модели доступ к нужным сервисам и строить поверх этого более естественные агентные сценарии. Это особенно полезно для ассистентов, которые должны не просто отвечать текстом, а реально выполнять задачи: искать данные, выбирать место на карте, проверять параметры, передавать результат во внутренний сервис и только потом формировать финальный ответ пользователю. Ещё один плюс — более предсказуемое масштабирование сложных цепочек.
Когда в одном процессе соединяются встроенные инструменты Google и собственные функции компании, снижается число промежуточных слоёв, где обычно теряется контекст или ломается логика вызовов. Для команд это значит более быстрые прототипы и меньше служебного кода вокруг них. А для продуктов — шанс быстрее перейти от чат-бота с подсказками к агенту, который действительно умеет доводить задачу до результата.
Что это значит
Google двигает Gemini API в сторону полноценных агентных интерфейсов, где модель не просто генерирует текст, а управляет набором инструментов в рамках одной сессии. Если эта схема окажется стабильной в реальных продакшн-сценариях, разработчики смогут собирать полезных AI-ассистентов с меньшим количеством ручной оркестрации и быстрее выводить их в продукт.