Goldman Sachs desativou o acesso ao Claude do Anthropic para funcionários em Hong Kong
Goldman Sachs desativou o acesso ao Claude do Anthropic para funcionários em Hong Kong. A restrição afeta a ferramenta de IA que acelera a escrita de código, ma

Goldman Sachs отключил сотрудникам в Гонконге доступ к Claude от Anthropic — AI-инструменту, который помогает быстрее писать программный код. По данным Bloomberg, ограничение уже действует, но публичного объяснения причин банк не дал.
Что случилось в
Гонконге Речь идет не о полном отказе Goldman Sachs от генеративного AI, а о точечном ограничении в одном из ключевых азиатских офисов. Bloomberg со ссылкой на источник, знакомый с ситуацией, пишет, что сотрудники в Гонконге больше не могут пользоваться Claude. Пока неясно, затронуло ли решение другие подразделения банка, временная ли это мера и связано ли оно с внутренней проверкой, политикой безопасности или локальными требованиями по работе с данными.
Сам факт регионального ограничения важен не меньше, чем само отключение. В больших международных банках доступ к внутренним и внешним цифровым сервисам часто настраивается не единообразно, а по странам, юрлицам и функциям команд. Поэтому даже точечное изменение в одном офисе может означать либо локальную корректировку правил, либо более широкий пересмотр того, как AI-инструменты допускаются в инженерные процессы внутри глобальной организации.
Что могло повлиять В самом материале причина не называется, поэтому
любые объяснения здесь — только осторожные выводы по контексту. Для крупных банков инструменты вроде Claude — это не просто чат-боты, а потенциальная точка доступа к внутреннему коду, документации, рабочим процессам и данным клиентов. Если сотрудники используют AI для ускорения разработки, банк обычно отдельно оценивает, какие фрагменты кода можно отправлять во внешний сервис, где хранятся запросы, как настраивается аудит и кто отвечает за соответствие локальным правилам.
отправка внутренних фрагментов кода и конфигураций во внешний сервис региональные ограничения на обработку и хранение данных пересмотр пилотных AI-программ после внутреннего аудита разный набор разрешенных инструментов для разных офисов и команд Claude в новости описан как агент, ускоряющий разработку программного обеспечения. Для банка это полезный, но чувствительный сценарий: помощник может предлагать фрагменты кода, объяснять логику систем и помогать с рефакторингом, однако любой выигрыш в скорости приходится сравнивать с рисками комплаенса и утечки интеллектуальной собственности. Особенно это касается международных организаций, где одна и та же платформа должна проходить проверку сразу по нескольким юрисдикциям.
Сигнал для рынка История с офисом в Гонконге важна шире одного банка.
Финансовые организации активно тестируют генеративный AI, но именно банки чаще других упираются в требования безопасности, регуляторики и управляемости. Любой инструмент, который помогает писать код, автоматически попадает в более строгую зону контроля, чем обычный корпоративный чат. Потому что речь идет не только о тексте, но и о доступе к логике внутренних систем, библиотекам, инженерным практикам и потенциально — к данным, которые связаны с критической инфраструктурой бизнеса.
Для Anthropic это тоже показательный эпизод. Даже если ограничение касается только одного региона, он напоминает, что победа в корпоративном сегменте зависит не только от качества модели. Не меньшее значение имеют условия развертывания, маршрутизация данных, прозрачность логов, гибкость админ-контроля и готовность подстраиваться под локальные правила.
В корпоративном AI продукт покупают не за впечатляющее демо, а за предсказуемость, контроль и возможность пройти внутреннюю проверку рисков.
Что это значит
Новость из Goldman Sachs показывает, что рынок корпоративного AI входит в фазу более жесткой фильтрации. Большим компаниям уже недостаточно, чтобы инструмент был просто сильным: он должен укладываться в региональные политики, комплаенс и модель управления доступом. Для вендоров это означает одну вещь — корпоративные продажи все чаще решаются не в интерфейсе, а в службе безопасности.