Habr AI→ оригинал

Йошуа Бенджио и LawZero: почему страх перед будущим ИИ отвлекает от угроз сегодня

Новый текст о «пари Паскаля» в ИИ спорит с популярной идеей, что главная угроза связана с будущим сверхразумом. Автор считает, что реальная проблема уже здесь:

Йошуа Бенджио и LawZero: почему страх перед будущим ИИ отвлекает от угроз сегодня
Источник: Habr AI. Коллаж: Hamidun News.

Спор о будущем искусственного интеллекта все чаще строится вокруг сценариев, в которых машины однажды станут разумными и выйдут из-под контроля. Но главный тезис этого текста в другом: ждать гипотетического сверхразума не нужно, потому что ключевые риски ИИ уже проявились в реальной экономике и политике. Речь идет не о восстании машин, а о концентрации власти, слежке, давлении на работников и использовании технологий в интересах крупных структур.

Автор прямо заявляет, что не считает нынешние ИИ-системы разумными и не видит оснований полагать, что впечатляющие статистические модели автоматически приведут к появлению полноценного интеллекта. Поэтому разговоры в духе «что делать, если ИИ станет сознательным» он воспринимает либо как удобное отвлечение, либо как маркетинговую рамку, которая позволяет обсуждать эффектные будущие катастрофы вместо неудобных проблем настоящего. Отсюда и отсылка к «пари Паскаля»: страх перед маловероятным, но грандиозным событием начинает диктовать повестку сильнее, чем уже наблюдаемые последствия.

При этом позиция автора не сводится к безусловному технооптимизму. Напротив, он признает, что разделяет часть тревог так называемых ИИ-думеров, но видит источник угрозы не в пробуждении машинного разума, а в людях и институтах, которые уже распоряжаются этими системами. Его беспокоит, что цифровые инструменты сосредоточены в руках корпораций, масштабы которых затрудняют общественный контроль.

Его беспокоит, что технологии используются против пользователей и работников: для усиления наблюдения, автоматизации давления, ужесточения метрик продуктивности и дальнейшего перекоса баланса сил в пользу работодателей и государства. Именно здесь появляется главный конфликт с более футуристической школой ИИ-безопасности. Поводом для него стала публичная дискуссия в Монреале, где автор выступал вместе с Астрой Тейлор и Йошуа Бенджио.

Бенджио, один из самых авторитетных исследователей в области глубокого обучения, лауреат премии Тьюринга и ученый, чьи работы помогли сформировать нынешний ИИ-бум. Сейчас он участвует в инициативе LawZero, которая предлагает создать международный консорциум и развивать ИИ как общественное цифровое благо: открытое, прозрачное, проверяемое и безопасное. Для сторонников такого подхода долгосрочные риски достаточно серьезны, чтобы строить институты защиты заранее.

Автор, однако, спорит не столько с самой идеей подстраховаться, сколько с расстановкой приоритетов. По его логике, обсуждение гипотетического сверхинтеллекта слишком легко превращается в удобную абстракцию, тогда как уже существующие системы распознавания, рекомендаций, генерации и оценки труда встроены в механизмы контроля здесь и сейчас. Они влияют на найм, производительность, модерацию, доступ к информации и отношения между государством, бизнесом и гражданами.

Когда власть концентрируется у технологических гигантов, а государство охотно опирается на их инструменты, проблема перестает быть научно-фантастической: она становится политической, социальной и трудовой. Такой взгляд важен еще и потому, что он меняет язык самой дискуссии. Вместо вопроса «как спасти человечество от автономной сверхмашины» появляется более приземленный набор тем: кто владеет вычислительными ресурсами, кто задает правила доступа к данным, какие механизмы аудита реально работают и кто несет ответственность за вред от автоматизированных решений.

Это менее зрелищная повестка, чем апокалиптические прогнозы, но именно она определяет, будут ли технологии усиливать неравенство или работать в общественных интересах. В этом и состоит практический вывод. Спор о будущем ИИ важен, но он не должен подменять разговор о прозрачности моделей, подотчетности платформ, правах работников и границах цифрового надзора.

Если внимание общества будет приковано только к редкому сценарию будущей катастрофы, корпорации и власти получат еще больше пространства для решений, которые ухудшают жизнь уже сегодня. Текст предлагает простую, но неудобную оптику: главный вопрос не в том, станет ли ИИ когда-нибудь слишком умным, а в том, кто использует нынешний ИИ, в чьих интересах и с какими последствиями для общества.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…