Wired→ оригинал

ИИ-детектив в Минздраве США: Роберт Кеннеди-младший ищет побочки там, где их не видели

Пока мир обсуждает новые языковые модели, в Минздраве США (HHS) назревает тихая революция с привкусом конспирологии. Под руководством Роберта Кеннеди-младшего в

ИИ-детектив в Минздраве США: Роберт Кеннеди-младший ищет побочки там, где их не видели
Источник: Wired. Коллаж: Hamidun News.

Представьте, что вы даете мощнейший цифровой микроскоп человеку, который заранее уверен, что во всех бедах мира виноваты микробы строго определенного вида. Он обязательно их найдет, даже если это просто пыль на линзе или дефект стекла. Примерно это сейчас происходит в коридорах Министерства здравоохранения и социальных служб США (HHS).

Ведомство, которое теперь неразрывно ассоциируется с одиозной фигурой Роберта Кеннеди-младшего, решило вооружиться искусственным интеллектом для поиска связей между вакцинацией и различными заболеваниями. Сама по себе идея анализа данных — дело благое и даже необходимое. В медицине всегда есть место для поиска крайне редких побочных эффектов, которые могли ускользнуть от внимания исследователей во время стандартных клинических испытаний.

Однако дьявол, как обычно, кроется в деталях и в том, кто именно держит в руках пульт управления этой технологией.

Кеннеди-младший десятилетиями строил свою публичную карьеру на жестком скептицизме по отношению к вакцинам. Теперь в его распоряжении оказывается инструмент, способный превратить разрозненные и зачастую неподтвержденные жалобы в якобы научно обоснованные гипотезы. Проблема заключается в том, что современный ИИ — это не беспристрастный судья и не носитель абсолютной истины.

Это зеркало тех данных, которые в него загружают, и тех промптов, которые ему диктуют. Если скормить нейросети огромную базу данных VAERS, где собраны любые жалобы людей после прививок — от легкой головной боли до случайных травм — и настойчиво попросить её найти закономерности, она их найдет. Нейросети виртуозно умеют галлюцинировать корреляции, особенно если их об этом очень просят.

Ученые по всему миру опасаются, что новый инструмент станет конвейером по производству громких заголовков о доказанном вреде, полностью игнорируя базовый медицинский принцип: после не значит вследствие.

Этот кейс ставит перед всей индустрией ИИ важнейший этический вопрос. Мы привыкли обсуждать нелепые ошибки чат-ботов, когда они путают даты рождения знаменитостей или придумывают несуществующие книги. Но когда алгоритм начинает генерировать медицинские гипотезы, способные повлиять на государственную политику и здоровье миллионов людей, ставки взлетают до небес. Использование машинного обучения для подтверждения собственной предвзятости (так называемый confirmation bias) — это, пожалуй, самый опасный сценарий применения технологий в государственном управлении. Вместо того чтобы использовать алгоритмы для объективной проверки безопасности лекарственных средств, мы рискуем получить совершенный инструмент для легитимизации конспирологических теорий.

Ситуация осложняется тем, что широкая публика склонна доверять выводам, сделанным компьютером, больше, чем словам политиков. Если Минздрав США начнет выпускать отчеты, сгенерированные нейросетью, научному сообществу будет крайне сложно парировать эти аргументы. Ведь спорить с цифрами и графиками, за которыми стоит загадочный и мощный интеллект, психологически тяжелее, чем с публичным деятелем. Мы вступаем в эпоху альтернативных данных, где ИИ может стать не помощником врача, а главным оружием в информационной войне против доказательной медицины. И последствия этого эксперимента мы будем расхлебывать еще очень долго.

Главное: Сможет ли научное сообщество создать систему противовесов, или нас ждет эпоха, когда медицинские стандарты будут диктоваться алгоритмами с заранее заданным вектором поиска?

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…