Palantir renforce sa position au Royaume-Uni : un contrat avec la FCA ouvre l’accès à des données sensibles
Palantir s’implante encore plus profondément dans le secteur public britannique : après le NHS, la police et l’armée, l’entreprise a obtenu un contrat pilote av
Palantir получила новый контракт в Великобритании и теперь заходит в одну из самых чувствительных зон государства — финансовый надзор. Британский регулятор FCA поручил компании пилотный анализ внутренних массивов данных, а вместе с этим снова вспыхнул спор о приватности, зависимости от американских подрядчиков и границах применения ИИ в госсекторе.
Зачем FCA нужен Palantir Речь идёт о 12-недельном пилоте стоимостью более 30 тысяч фунтов в неделю.
Palantir должна помочь Financial Conduct Authority разбирать собственное «озеро данных» и искать сигналы финансовых преступлений — от мошенничества и отмывания денег до инсайдерской торговли. Для FCA задача понятна: регулятор следит примерно за 42 тысячами организаций, от крупных банков до криптоплатформ, и хочет быстрее отделять реальные угрозы от тупиковых расследований. Внутри британской системы это выглядит как очередной шаг к более агрессивному внедрению ИИ-инструментов в госуправление. На стороне Palantir играет сразу несколько факторов: давление на бюджеты, рост объёма цифровых следов и политический запрос на технологическую эффективность. Финансовые услуги дают около 9% экономики страны, поэтому доступ к данным этой сферы делает новый контракт заметно важнее обычного эксперимента с аналитикой и объясняет, почему за ним следят далеко за пределами финтеха.
Почему возник скандал
Главная претензия критиков не в самом факте автоматизации, а в типе данных, к которым может прикоснуться подрядчик. Речь идёт о высокочувствительных досье: материалах внутренних расследований, данных о проблемных компаниях, сообщениях банков о подтверждённом и подозрительном мошенничестве, жалобах потребителей, а также о письмах, звонках и даже выгрузках из соцсетей. Для системы, которая должна распознавать паттерны, это идеальный материал. Для юристов и правозащитников — повод для тревоги.
«Если такие данные скармливать ИИ, риски для приватности будут очень серьёзными».
Отдельный раздражитель — решение тестировать систему не на синтетических, а на реальных данных. FCA настаивает, что иначе пилот не дал бы полезного результата. Регулятор подчёркивает, что Palantir будет выступать только как обработчик данных, а не как их контролёр: ключи шифрования для самых чувствительных файлов останутся у FCA, хранение данных будет только в Великобритании, а после завершения пилота компания обязана уничтожить полученные массивы. Также FCA заявляет, что Palantir не может использовать эту информацию для обучения собственных продуктов.
Как Palantir закрепляется История с FCA важна ещё и потому, что это не единичная сделка.
Palantir уже встроилась в британские госструктуры по классической для корпоративного софта схеме: сначала ограниченный кейс, потом расширение в соседние контуры. В 2023 году компания вошла в NHS, в 2024-м — в полицейские структуры, в 2025-м — в военный сектор. Теперь на очереди финансовый надзор. Общая стоимость британских госконтрактов Palantir уже превысила 500 млн фунтов. Это усиливает опасения кампаний против компании: чем больше систем и ведомств завязаны на одного поставщика, тем выше риск долгосрочной зависимости от подрядчика. Претензии касаются не только технологий, но и самой репутации Palantir — из-за её работы с американскими силовыми структурами и израильской армией. Для части британских политиков и активистов новый контракт выглядит не как точечный IT-проект, а как ещё одно звено в растущей инфраструктурной зависимости.
- NHS и объединение медицинских данных Полицейская аналитика и расследования Военные и оборонные проекты Пилот FCA с внутренними данными регулятора Потенциальный выход на постоянную закупку ИИ-системы ## Что это значит Сделка с FCA показывает, что Palantir перестаёт быть для Британии просто поставщиком аналитического софта и становится частью государственной цифровой инфраструктуры. Спор теперь идёт уже не о том, нужен ли ИИ в регуляторике, а о том, кто получает доступ к самым чувствительным данным, какие у этого доступа пределы и насколько сложно будет отказаться от такого партнёра потом. И именно этот вопрос, а не только эффективность поиска мошенничества, будет определять отношение к таким контрактам дальше.