British police admit bias in their AI, but promise to tackle it
Alex Murray, head of AI at the UK's National Crime Agency, publicly acknowledged that AI systems used by police will inevitably contain bias. He also said that

Когда высокопоставленный полицейский чиновник открыто говорит, что технология, которую государство собирается массово внедрять, содержит системную предвзятость, это заслуживает пристального внимания. Именно это произошло в Великобритании, где Алекс Мюррей, глава AI-направления Национального агентства по борьбе с преступностью (NCA), в эксклюзивном интервью Guardian признал очевидное: искусственный интеллект на службе правоохранительных органов будет предвзятым. Но тут же пообещал, что с этим будут бороться.
Контекст этого заявления не менее важен, чем его содержание. Лейбористское правительство Великобритании взяло курс на драматическое расширение использования ИИ в полиции Англии и Уэльса. Речь идёт не о локальных экспериментах, а о системной трансформации: полицейское руководство убеждено, что без искусственного интеллекта правоохранительные органы просто не смогут угнаться за эволюцией преступности. Для реализации этих амбиций создаётся специализированный полицейский AI-центр с бюджетом в 115 миллионов фунтов стерлингов — примерно 13,5 миллиардов рублей по текущему курсу. Сумма, которая говорит о серьёзности намерений.
Сам Мюррей поспешил успокоить общественность фразой, которая уже стала мемом в британских медиа: «Это не Робокоп». По его словам, речь идёт прежде всего о повышении эффективности в сложных расследованиях — обработке массивов данных, выявлении паттернов, ускорении аналитической работы. Звучит разумно и даже безобидно. Но дьявол, как всегда, в деталях.
Проблема предвзятости ИИ в правоохранительной сфере — это не абстрактная теоретическая угроза. Мировой опыт уже накопил достаточно тревожных примеров. В США системы предиктивной полицейской аналитики неоднократно демонстрировали расовую предвзятость, направляя непропорционально больше ресурсов в районы проживания меньшинств. Системы распознавания лиц показывали значительно более высокий процент ошибок при идентификации людей с тёмным цветом кожи. Алгоритмы оценки рисков рецидивизма присваивали более высокие баллы представителям определённых этнических групп при прочих равных условиях. Всё это не гипотезы — это задокументированные случаи.
То, что Мюррей открыто признаёт наличие предвзятости, можно трактовать двояко. С одной стороны, это проявление интеллектуальной честности, редкой для государственных чиновников, продвигающих дорогостоящие технологические проекты. Обычно на этом этапе принято говорить о «нейтральности алгоритмов» и «объективности данных». С другой стороны, формула «мы знаем, что есть проблема, и будем с ней работать» — это классический приём управления ожиданиями, который позволяет внедрить технологию сейчас, а решать проблемы потом. Обещание «ограничить несправедливость» — это не то же самое, что обещание её устранить.
Для более широкого контекста важно понимать, что Великобритания движется в русле глобального тренда. Правоохранительные органы по всему миру наращивают использование ИИ, и вопрос уже не в том, будет ли полиция применять эти технологии, а в том, на каких условиях. Европейский союз в своём AI Act установил жёсткие ограничения на использование систем биометрической идентификации в реальном времени. Великобритания после Brexit не связана этими нормами и, судя по всему, выбирает более либеральный подход — с акцентом на саморегулирование и внутренний контроль.
Отдельного внимания заслуживает сама архитектура контроля. Создание специализированного центра за 115 миллионов фунтов — это попытка централизовать разработку и надзор, что теоретически лучше, чем хаотичное внедрение ИИ отдельными полицейскими подразделениями. Однако ключевой вопрос остаётся без ответа: кто будет контролировать контролёров? Если аудит предвзятости проводит сама полиция, это всё равно что поручить лисе охранять курятник. Независимый внешний надзор, прозрачность алгоритмов, механизмы обжалования решений — всё это пока остаётся в области благих пожеланий.
Для российской аудитории эта история важна как ориентир. Отечественные правоохранительные органы также активно внедряют технологии распознавания лиц и предиктивной аналитики, но публичной дискуссии о предвзятости этих систем в России практически не ведётся. Британский опыт показывает, что даже в стране с развитыми институтами гражданского контроля и независимыми медиа проблема предвзятости ИИ в полиции остаётся нерешённой. Признание проблемы — необходимый первый шаг, но без конкретных механизмов контроля оно рискует остаться красивым жестом, за которым последует тихое внедрение несовершенных технологий в масштабах всей страны.