Лондонская полиция использует ИИ от Palantir для слежки за собственными офицерами
Столичная полиция Лондона признала, что использует ИИ-инструменты компании Palantir для мониторинга поведения собственных офицеров. Система анализирует данные о

Столичная полиция Лондона — крупнейшая правоохранительная структура Великобритании — впервые официально подтвердила, что использует инструменты искусственного интеллекта от американской компании Palantir для мониторинга поведения собственных сотрудников. Система анализирует больничные листы, прогулы, сверхурочные и другие внутренние данные, чтобы автоматически выявлять офицеров с потенциальными проблемами в профессиональной этике. Полицейская федерация — профсоюз, представляющий рядовых полицейских — немедленно осудила практику, назвав её «автоматизированным подозрением».
Признание Scotland Yard стало результатом журналистского расследования The Guardian. До этого момента руководство полиции последовательно отказывалось подтверждать или опровергать любые контакты с Palantir — компанией, чья репутация вызывает острые дебаты по обе стороны Атлантики. Palantir, основанная при участии Питера Тиля — одного из ключевых союзников Дональда Трампа в Кремниевой долине — давно работает с американскими спецслужбами и военными. Сегодня среди её клиентов — иммиграционная служба ICE, проводящая массовые депортации при администрации Трампа, а также армия Израиля. Для британских правозащитников сам факт сотрудничества с такой компанией уже является поводом для тревоги.
Но суть проблемы глубже, чем просто выбор подрядчика. Впервые крупная полицейская служба западной демократии открыто применяет алгоритмический анализ не к подозреваемым или гражданам, а к собственным офицерам. Формально цель благородна: Metropolitan Police переживает глубокий кризис доверия после серии скандалов — от убийства Сары Эверард офицером Уэйном Кузенсом до системных обвинений в расизме и сексизме, зафиксированных в разгромном докладе баронессы Кейси в 2023 году. Руководство полиции отчаянно ищет инструменты, способные выявлять проблемных сотрудников до того, как они совершат серьёзное преступление или нарушение. Алгоритмы Palantir, анализирующие паттерны поведения — частые больничные, нерегулярные переработки, необъяснимые отсутствия — призваны стать таким инструментом раннего предупреждения.
Однако именно здесь начинается территория, где технологическая эффективность сталкивается с фундаментальными вопросами о правах работников и природе подозрения. Полицейская федерация не случайно выбрала формулировку «автоматизированное подозрение». Когда алгоритм помечает офицера на основании статистических аномалий — скажем, слишком частых больничных — это не расследование конкретного нарушения, а профилирование на основе данных. Офицер, страдающий хроническим заболеванием, или сотрудник, переживающий семейный кризис, рискует оказаться под подозрением системы, которая не понимает контекста. Более того, сам факт тотального мониторинга создаёт атмосферу недоверия, которая может усугубить и без того низкий моральный дух в рядах лондонской полиции.
Есть и юридическое измерение. Британское законодательство о защите данных — UK GDPR и Data Protection Act 2018 — устанавливает жёсткие требования к автоматизированному принятию решений, затрагивающих людей. Если алгоритмы Palantir генерируют рекомендации, влияющие на карьеру или дисциплинарные процедуры в отношении офицеров, это может потребовать проведения оценки воздействия на защиту данных и обеспечения права сотрудников оспорить автоматизированные решения. Пока неясно, были ли соблюдены все эти процедуры, учитывая, что Scotland Yard до последнего момента скрывал сам факт использования технологии.
Ситуация с Metropolitan Police вписывается в более широкий тренд, который стремительно набирает обороты по всему миру. Правоохранительные органы от Нью-Йорка до Токио всё активнее внедряют ИИ-системы — для распознавания лиц, предиктивной полицейской работы, анализа социальных сетей. Но случай Лондона уникален тем, что здесь алгоритмический надзор направлен внутрь самой организации. Это создаёт прецедент, который может распространиться далеко за пределы полиции: если допустимо алгоритмически профилировать полицейских, что мешает применить ту же логику к врачам, учителям, государственным служащим?
Для Palantir этот контракт — очередной шаг в экспансии на европейский рынок государственных услуг. Компания уже работает с Национальной службой здравоохранения Великобритании, что также вызывает протесты правозащитников. Каждый новый контракт укрепляет позиции Palantir как незаменимого поставщика аналитической инфраструктуры для государства — и одновременно делает всё сложнее вопрос о том, насколько демократические институты должны зависеть от частной американской компании с весьма специфическим списком клиентов.
Лондонский эксперимент с ИИ-надзором за полицейскими ставит перед обществом неудобный вопрос, на который пока нет хорошего ответа. Можно ли бороться с институциональными проблемами полиции с помощью тех же инструментов тотальной слежки, которые общество критикует, когда они направлены на граждан? Или, выражаясь проще: кто будет следить за теми, кто следит за следящими?