Guardian→ оригинал

Почему независимый надзор за ИИ больше нельзя откладывать

Член наблюдательного совета Meta Сюзанн Носсел выступила с призывом немедленно создать механизмы независимого контроля над ИИ. По её словам, в отличие от ядерно

Почему независимый надзор за ИИ больше нельзя откладывать
Источник: Guardian. Коллаж: Hamidun News.

Когда последний раз технология, способная перекроить основы цивилизации, развивалась практически без государственного контроля? Сюзанн Носсел, глава PEN America и член независимого наблюдательного совета Meta, считает, что именно это сейчас происходит с искусственным интеллектом — и что окно для действий стремительно закрывается.

В своей колонке для The Guardian Носсел проводит показательное сравнение. Радио, ядерная энергия, интернет — каждая из этих технологий с самого начала развивалась при активном участии правительств. Для лекарств существует FDA, тестирующее препараты до выхода на рынок. Для ядерной промышленности — жёсткие требования к раскрытию аварий и инцидентов. Для искусственного интеллекта не существует ничего подобного. Компании выпускают модели, работу которых не до конца понимают даже их создатели, и при этом не несут практически никакой ответственности за последствия. Чат-боты уже сейчас дают подросткам советы о суициде, а эксперты предупреждают, что скоро они смогут инструктировать по созданию биологического оружия.

Почему регулирование буксует? Носсел указывает на три ключевых фактора. Во-первых, колоссальный лоббистский ресурс технологических корпораций, который в Вашингтоне сопоставим разве что с влиянием нефтяной и фармацевтической отраслей. Во-вторых, политическая поляризация в Конгрессе, при которой любой законопроект об ИИ рискует стать заложником партийных разногласий. В-третьих, сама природа технологии — она развивается настолько быстро, что законодатели физически не успевают разобраться в том, что именно они пытаются регулировать. Дональд Трамп тем временем предпринимает попытки обнулить региональные законы об ИИ, которые отдельные штаты начали принимать в отсутствие федеральных стандартов. Европа, казалось бы, идёт впереди со своим AI Act, но уже сталкивается с давлением бизнеса, утверждающего, что жёсткие правила подрывают конкурентоспособность континента.

Особенно примечательна критика Носсел в адрес компаний, которые позиционируют себя как ответственных игроков. OpenAI, Google, Anthropic — все заявляют о приверженности безопасности. Однако гонка за доминирование на рынке ИИ требует вливания миллиардов долларов в разработку всё более мощных моделей, добавления рекламы и расширения сотрудничества с военными структурами. Anthropic, которая строит свой бренд на идее «самой добросовестной» ИИ-компании, в качестве этического ориентира использует мысленный эксперимент — модель должна представить, как поступил бы «вдумчивый старший сотрудник Anthropic». Носсел справедливо замечает, что этот подход воспроизводит ту самую проблему, за которую Кремниевую долину критиковали годами: узкий круг людей из привилегированной среды принимает решения, влияющие на миллиарды пользователей по всему миру.

Цифры подтверждают масштаб общественной тревоги. Согласно опросам 2025 года, 77 процентов американцев считают, что ИИ может представлять угрозу для человечества. Это не маргинальная позиция алармистов — это подавляющее большинство населения страны, которая является мировым лидером в разработке этой технологии. При этом между осознанием рисков и реальными действиями лежит пропасть.

Для российской аудитории эта дискуссия имеет особое значение. В России регулирование ИИ находится на ещё более ранней стадии, чем в США или Европе, а крупнейшие отечественные технологические компании активно развивают собственные языковые модели и ИИ-сервисы. Международный опыт — и ошибки — в построении систем надзора неизбежно повлияет на формирование российских подходов к этой проблеме.

Позиция Носсел сводится к простой, но важной мысли: если государства не способны или не готовы регулировать ИИ прямо сейчас, минимальным шагом должно стать согласие компаний на независимый внешний надзор. Не внутренние этические комитеты, не мысленные эксперименты о том, как поступил бы идеальный сотрудник, а полноценный аудит со стороны структур, не зависящих от прибыли этих компаний. Это не решит проблему целиком, но хотя бы создаст первый рубеж защиты — до тех пор, пока законодатели не догонят технологию, которая их давно обогнала.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…