Полиция Британии признала предвзятость своего ИИ, но обещает с ней бороться
Алекс Мюррей, руководитель AI-направления британского Национального агентства по борьбе с преступностью, публично признал, что системы искусственного интеллекта

Когда высокопоставленный полицейский чиновник открыто говорит, что технология, которую государство собирается массово внедрять, содержит системную предвзятость, это заслуживает пристального внимания. Именно это произошло в Великобритании, где Алекс Мюррей, глава AI-направления Национального агентства по борьбе с преступностью (NCA), в эксклюзивном интервью Guardian признал очевидное: искусственный интеллект на службе правоохранительных органов будет предвзятым. Но тут же пообещал, что с этим будут бороться.
Контекст этого заявления не менее важен, чем его содержание. Лейбористское правительство Великобритании взяло курс на драматическое расширение использования ИИ в полиции Англии и Уэльса. Речь идёт не о локальных экспериментах, а о системной трансформации: полицейское руководство убеждено, что без искусственного интеллекта правоохранительные органы просто не смогут угнаться за эволюцией преступности. Для реализации этих амбиций создаётся специализированный полицейский AI-центр с бюджетом в 115 миллионов фунтов стерлингов — примерно 13,5 миллиардов рублей по текущему курсу. Сумма, которая говорит о серьёзности намерений.
Сам Мюррей поспешил успокоить общественность фразой, которая уже стала мемом в британских медиа: «Это не Робокоп». По его словам, речь идёт прежде всего о повышении эффективности в сложных расследованиях — обработке массивов данных, выявлении паттернов, ускорении аналитической работы. Звучит разумно и даже безобидно. Но дьявол, как всегда, в деталях.
Проблема предвзятости ИИ в правоохранительной сфере — это не абстрактная теоретическая угроза. Мировой опыт уже накопил достаточно тревожных примеров. В США системы предиктивной полицейской аналитики неоднократно демонстрировали расовую предвзятость, направляя непропорционально больше ресурсов в районы проживания меньшинств. Системы распознавания лиц показывали значительно более высокий процент ошибок при идентификации людей с тёмным цветом кожи. Алгоритмы оценки рисков рецидивизма присваивали более высокие баллы представителям определённых этнических групп при прочих равных условиях. Всё это не гипотезы — это задокументированные случаи.
То, что Мюррей открыто признаёт наличие предвзятости, можно трактовать двояко. С одной стороны, это проявление интеллектуальной честности, редкой для государственных чиновников, продвигающих дорогостоящие технологические проекты. Обычно на этом этапе принято говорить о «нейтральности алгоритмов» и «объективности данных». С другой стороны, формула «мы знаем, что есть проблема, и будем с ней работать» — это классический приём управления ожиданиями, который позволяет внедрить технологию сейчас, а решать проблемы потом. Обещание «ограничить несправедливость» — это не то же самое, что обещание её устранить.
Для более широкого контекста важно понимать, что Великобритания движется в русле глобального тренда. Правоохранительные органы по всему миру наращивают использование ИИ, и вопрос уже не в том, будет ли полиция применять эти технологии, а в том, на каких условиях. Европейский союз в своём AI Act установил жёсткие ограничения на использование систем биометрической идентификации в реальном времени. Великобритания после Brexit не связана этими нормами и, судя по всему, выбирает более либеральный подход — с акцентом на саморегулирование и внутренний контроль.
Отдельного внимания заслуживает сама архитектура контроля. Создание специализированного центра за 115 миллионов фунтов — это попытка централизовать разработку и надзор, что теоретически лучше, чем хаотичное внедрение ИИ отдельными полицейскими подразделениями. Однако ключевой вопрос остаётся без ответа: кто будет контролировать контролёров? Если аудит предвзятости проводит сама полиция, это всё равно что поручить лисе охранять курятник. Независимый внешний надзор, прозрачность алгоритмов, механизмы обжалования решений — всё это пока остаётся в области благих пожеланий.
Для российской аудитории эта история важна как ориентир. Отечественные правоохранительные органы также активно внедряют технологии распознавания лиц и предиктивной аналитики, но публичной дискуссии о предвзятости этих систем в России практически не ведётся. Британский опыт показывает, что даже в стране с развитыми институтами гражданского контроля и независимыми медиа проблема предвзятости ИИ в полиции остаётся нерешённой. Признание проблемы — необходимый первый шаг, но без конкретных механизмов контроля оно рискует остаться красивым жестом, за которым последует тихое внедрение несовершенных технологий в масштабах всей страны.