Wired→ оригинал

Palantir и Credal AI: Минздрав США фильтрует гранты на «правильность»

Минздрав США (HHS) нашел новое применение технологиям Palantir и стартапа Credal AI. С марта 2025 года ведомство использует алгоритмы для автоматической проверк

Palantir и Credal AI: Минздрав США фильтрует гранты на «правильность»
Источник: Wired. Коллаж: Hamidun News.

Представьте, что вы подаете заявку на научный грант, потратив месяцы на исследования и расчеты. Но вашу работу отклоняют за доли секунды не потому, что в ней плохая математика, а потому, что алгоритм нашел в тексте «неправильные» слова. Именно это сейчас происходит в коридорах Министерства здравоохранения и социальных служб США (HHS).

С марта 2025 года ведомство официально поставило нейросети на стражу идеологической чистоты, используя мощности Palantir и инструменты стартапа Credal AI. Это событие — не просто очередная новость о внедрении софта. Это тектонический сдвиг в том, как государство взаимодействует с наукой и обществом.

Раньше проверка на соответствие политическим директивам была делом медленным и человеческим. Теперь же Palantir, компания, чей имидж неразрывно связан с фигурой Питера Тиля и государственным надзором, предоставила инфраструктуру для автоматизированной цензуры. В паре с ними работает Credal AI — стартап, который специализируется на безопасном внедрении языковых моделей в корпоративные процессы.

Вместе они создали идеальный фильтр для вычистки определенной повестки из государственного бюджета.

Под прицелом оказались две аббревиатуры и одно широкое понятие: DEI (разнообразие, равенство и инклюзивность) и так называемая «гендерная идеология». Если ваша программа по охране здоровья учитывает специфику меньшинств или использует терминологию, которую нынешнее руководство ведомства считает избыточной, шансы на получение финансирования стремятся к нулю. Алгоритм не вникает в контекст — он ищет маркеры, которые помечены как «нежелательные» в текущем политическом цикле.

Чтобы понять масштаб, нужно вспомнить, чем Palantir занимался раньше. Их платформа Foundry годами помогала спецслужбам связывать разрозненные данные в единую картину для поиска угроз или анализа цепочек поставок. Переквалификация этой мощи на поиск «социальной инженерии» в грантах выглядит как логичное, хоть и пугающее развитие технологий контроля.

Если раньше AI часто обвиняли в либеральном уклоне, то теперь мы видим, как маятник с грохотом улетел в противоположную сторону, превратившись в инструмент консервативной ревизии.

Проблема здесь не только в политике, но и в самой природе больших языковых моделей. Мы знаем, что нейросети могут ошибаться и интерпретировать текст превратно. Когда такая модель становится судьей, решающим судьбу миллионов долларов, прозрачность процесса исчезает.

Как именно Credal AI настроил свои фильтры? Какие веса присвоены словам «равенство» или «гендер»? Ответы на эти вопросы спрятаны за корпоративной тайной и грифами ведомственной секретности.

Для научного сообщества это означает начало эпохи самоцензуры. Исследователи, чья работа жизненно зависит от грантов, теперь будут трижды думать, прежде чем использовать в своих работах определенную лексику. Это создает опасный прецедент: наука начинает подстраиваться под алгоритмический фильтр, который настроен под текущую конъюнктуру.

Сегодня это борьба с DEI, а что нейросети прикажут искать завтра? Этот кейс наглядно показывает, что эпоха «нейтрального AI» закончилась, так и не начавшись. Технологии стали продолжением воли тех, кто держит в руках бюджетный рычаг.

Использование Palantir в этой схеме лишь подтверждает: эффективное управление данными в современном мире — это прежде всего эффективная фильтрация неугодных смыслов.

Главное: Станет ли «идеологический AI-фильтр» стандартом для всех государственных структур, или мы увидим масштабное судебное сопротивление научного сообщества?

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…