Goldman Sachs disabled access to Anthropic's Claude for employees in Hong Kong
Goldman Sachs disabled access to Anthropic's Claude for employees in Hong Kong. The restriction affects the AI tool that accelerates code writing, but the bank

Goldman Sachs отключил сотрудникам в Гонконге доступ к Claude от Anthropic — AI-инструменту, который помогает быстрее писать программный код. По данным Bloomberg, ограничение уже действует, но публичного объяснения причин банк не дал.
Что случилось в
Гонконге Речь идет не о полном отказе Goldman Sachs от генеративного AI, а о точечном ограничении в одном из ключевых азиатских офисов. Bloomberg со ссылкой на источник, знакомый с ситуацией, пишет, что сотрудники в Гонконге больше не могут пользоваться Claude. Пока неясно, затронуло ли решение другие подразделения банка, временная ли это мера и связано ли оно с внутренней проверкой, политикой безопасности или локальными требованиями по работе с данными.
Сам факт регионального ограничения важен не меньше, чем само отключение. В больших международных банках доступ к внутренним и внешним цифровым сервисам часто настраивается не единообразно, а по странам, юрлицам и функциям команд. Поэтому даже точечное изменение в одном офисе может означать либо локальную корректировку правил, либо более широкий пересмотр того, как AI-инструменты допускаются в инженерные процессы внутри глобальной организации.
Что могло повлиять В самом материале причина не называется, поэтому
любые объяснения здесь — только осторожные выводы по контексту. Для крупных банков инструменты вроде Claude — это не просто чат-боты, а потенциальная точка доступа к внутреннему коду, документации, рабочим процессам и данным клиентов. Если сотрудники используют AI для ускорения разработки, банк обычно отдельно оценивает, какие фрагменты кода можно отправлять во внешний сервис, где хранятся запросы, как настраивается аудит и кто отвечает за соответствие локальным правилам.
отправка внутренних фрагментов кода и конфигураций во внешний сервис региональные ограничения на обработку и хранение данных пересмотр пилотных AI-программ после внутреннего аудита разный набор разрешенных инструментов для разных офисов и команд Claude в новости описан как агент, ускоряющий разработку программного обеспечения. Для банка это полезный, но чувствительный сценарий: помощник может предлагать фрагменты кода, объяснять логику систем и помогать с рефакторингом, однако любой выигрыш в скорости приходится сравнивать с рисками комплаенса и утечки интеллектуальной собственности. Особенно это касается международных организаций, где одна и та же платформа должна проходить проверку сразу по нескольким юрисдикциям.
Сигнал для рынка История с офисом в Гонконге важна шире одного банка.
Финансовые организации активно тестируют генеративный AI, но именно банки чаще других упираются в требования безопасности, регуляторики и управляемости. Любой инструмент, который помогает писать код, автоматически попадает в более строгую зону контроля, чем обычный корпоративный чат. Потому что речь идет не только о тексте, но и о доступе к логике внутренних систем, библиотекам, инженерным практикам и потенциально — к данным, которые связаны с критической инфраструктурой бизнеса.
Для Anthropic это тоже показательный эпизод. Даже если ограничение касается только одного региона, он напоминает, что победа в корпоративном сегменте зависит не только от качества модели. Не меньшее значение имеют условия развертывания, маршрутизация данных, прозрачность логов, гибкость админ-контроля и готовность подстраиваться под локальные правила.
В корпоративном AI продукт покупают не за впечатляющее демо, а за предсказуемость, контроль и возможность пройти внутреннюю проверку рисков.
Что это значит
Новость из Goldman Sachs показывает, что рынок корпоративного AI входит в фазу более жесткой фильтрации. Большим компаниям уже недостаточно, чтобы инструмент был просто сильным: он должен укладываться в региональные политики, комплаенс и модель управления доступом. Для вендоров это означает одну вещь — корпоративные продажи все чаще решаются не в интерфейсе, а в службе безопасности.