Habr AI→ оригинал

جوشوا بينجيو و LawZero: لماذا يصرف الخوف من ذكاء اصطناعي المستقبل الانتباه عن التهديدات الحالية

نص جديد حول «رهان باسكال» في الذكاء الاصطناعي يطعن في الفكرة الشائعة بأن التهديد الرئيسي يأتي من فائق الذكاء المستقبلي. يرى المؤلف أن المشكلة الحقيقية موجودة با

جوشوا بينجيو و LawZero: لماذا يصرف الخوف من ذكاء اصطناعي المستقبل الانتباه عن التهديدات الحالية
Источник: Habr AI. Коллаж: Hamidun News.

Спор о будущем искусственного интеллекта все чаще строится вокруг сценариев, в которых машины однажды станут разумными и выйдут из-под контроля. Но главный тезис этого текста в другом: ждать гипотетического сверхразума не нужно, потому что ключевые риски ИИ уже проявились в реальной экономике и политике. Речь идет не о восстании машин, а о концентрации власти, слежке, давлении на работников и использовании технологий в интересах крупных структур.

Автор прямо заявляет, что не считает нынешние ИИ-системы разумными и не видит оснований полагать, что впечатляющие статистические модели автоматически приведут к появлению полноценного интеллекта. Поэтому разговоры в духе «что делать, если ИИ станет сознательным» он воспринимает либо как удобное отвлечение, либо как маркетинговую рамку, которая позволяет обсуждать эффектные будущие катастрофы вместо неудобных проблем настоящего. Отсюда и отсылка к «пари Паскаля»: страх перед маловероятным, но грандиозным событием начинает диктовать повестку сильнее, чем уже наблюдаемые последствия.

При этом позиция автора не сводится к безусловному технооптимизму. Напротив, он признает, что разделяет часть тревог так называемых ИИ-думеров, но видит источник угрозы не в пробуждении машинного разума, а в людях и институтах, которые уже распоряжаются этими системами. Его беспокоит, что цифровые инструменты сосредоточены в руках корпораций, масштабы которых затрудняют общественный контроль.

Его беспокоит, что технологии используются против пользователей и работников: для усиления наблюдения, автоматизации давления, ужесточения метрик продуктивности и дальнейшего перекоса баланса сил в пользу работодателей и государства. Именно здесь появляется главный конфликт с более футуристической школой ИИ-безопасности. Поводом для него стала публичная дискуссия в Монреале, где автор выступал вместе с Астрой Тейлор и Йошуа Бенджио.

Бенджио, один из самых авторитетных исследователей в области глубокого обучения, лауреат премии Тьюринга и ученый, чьи работы помогли сформировать нынешний ИИ-бум. Сейчас он участвует в инициативе LawZero, которая предлагает создать международный консорциум и развивать ИИ как общественное цифровое благо: открытое, прозрачное, проверяемое и безопасное. Для сторонников такого подхода долгосрочные риски достаточно серьезны, чтобы строить институты защиты заранее.

Автор, однако, спорит не столько с самой идеей подстраховаться, сколько с расстановкой приоритетов. По его логике, обсуждение гипотетического сверхинтеллекта слишком легко превращается в удобную абстракцию, тогда как уже существующие системы распознавания, рекомендаций, генерации и оценки труда встроены в механизмы контроля здесь и сейчас. Они влияют на найм, производительность, модерацию, доступ к информации и отношения между государством, бизнесом и гражданами.

Когда власть концентрируется у технологических гигантов, а государство охотно опирается на их инструменты, проблема перестает быть научно-фантастической: она становится политической, социальной и трудовой. Такой взгляд важен еще и потому, что он меняет язык самой дискуссии. Вместо вопроса «как спасти человечество от автономной сверхмашины» появляется более приземленный набор тем: кто владеет вычислительными ресурсами, кто задает правила доступа к данным, какие механизмы аудита реально работают и кто несет ответственность за вред от автоматизированных решений.

Это менее зрелищная повестка, чем апокалиптические прогнозы, но именно она определяет, будут ли технологии усиливать неравенство или работать в общественных интересах. В этом и состоит практический вывод. Спор о будущем ИИ важен, но он не должен подменять разговор о прозрачности моделей, подотчетности платформ, правах работников и границах цифрового надзора.

Если внимание общества будет приковано только к редкому сценарию будущей катастрофы, корпорации и власти получат еще больше пространства для решений, которые ухудшают жизнь уже сегодня. Текст предлагает простую, но неудобную оптику: главный вопрос не в том, станет ли ИИ когда-нибудь слишком умным, а в том, кто использует нынешний ИИ, в чьих интересах и с какими последствиями для общества.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…