36Kr (36氪)→ оригинал

Baidu в суде: галлюцинации ИИ — это не повод для штрафа

Пекинский суд начал рассматривать иск адвоката Хуана Гуйгэна к компании Baidu. Причина — нейросеть сгенерировала фейковую информацию о его причастности к престу

Baidu в суде: галлюцинации ИИ — это не повод для штрафа
Источник: 36Kr (36氪). Коллаж: Hamidun News.

Представьте, что вы годами выстраиваете карьеру в юриспруденции, а потом однажды заходите в интернет и обнаруживаете, что популярная нейросеть приписывает вам участие в серии преступлений. Именно в такой ситуации оказался пекинский адвокат Хуан Гуйгэн, который решил, что терпеть выходки алгоритмов не намерен. Он подал иск против Baidu, требуя миллион юаней за ущерб деловой репутации.

На днях в суде района Хайдянь прошло первое слушание, и аргументы защиты Baidu заставляют задуматься о том, в каком дивном новом мире мы живем. Компания не отрицает, что её продукт выдал ложь, но утверждает, что это не было преднамеренным действием. Основной аргумент Baidu строится вокруг термина «галлюцинации».

Юристы компании заявили, что это явление — неизбежная стадия развития любой большой языковой модели. По их логике, раз технология находится в процессе совершенствования, то и за ошибки, которые она совершает в этот «переходный период», разработчик отвечать не должен. Baidu настаивает, что у них не было умысла оскорбить адвоката, а значит, нет и состава правонарушения.

Это классический пример того, как корпорации пытаются переложить ответственность с субъекта на несовершенство инструмента, делая вид, что ИИ — это некая стихийная сила, которую невозможно полностью контролировать. Контекст здесь крайне важен. Китай сейчас находится на передовой регулирования искусственного интеллекта, пытаясь найти баланс между поддержкой своих техгигантов в гонке с США и жестким контролем над информацией.

Если суд встанет на сторону Baidu, это создаст опасный прецедент. Фактически это будет означать, что любая компания может выпустить на рынок сырой продукт, который будет генерировать клевету, а в качестве оправдания использовать техническую сложность алгоритма. С другой стороны, если Baidu проиграет, индустрию ждет волна исков.

Каждое неверное слово чат-бота может стать поводом для многомиллионных выплат, что заставит разработчиков «закрутить гайки» и сделать модели максимально осторожными и, скорее всего, менее полезными. Интересно, как Baidu пытается отделить технологию от ответственности. Они утверждают, что не совершали прямого или косвенного нарушения прав, так как генерация текста — это автоматический процесс.

Но здесь возникает логический тупик. Если компания извлекает прибыль из работы этого алгоритма и продвигает его как надежный источник информации, почему она должна освобождаться от ответственности, когда алгоритм ошибается? В традиционных медиа редактор не может сказать, что ложная статья была «галлюцинацией» печатного станка.

Но в мире LLM старые правила игры почему-то перестают работать, или, по крайней мере, компании очень хотят, чтобы мы в это поверили. Этот процесс в Пекине — лишь первая ласточка в череде будущих юридических битв. Пока OpenAI и Google отбиваются от исков по авторским правам, Baidu столкнулась с более приземленной, но не менее важной проблемой — защитой чести и достоинства обычного человека.

Исход дела покажет, насколько «умным» и «безответственным» позволено быть искусственному интеллекту в современном обществе. Если галлюцинации признают законным правом машины на ошибку, то нам всем стоит приготовиться к тому, что цифровая реальность станет еще более непредсказуемой и токсичной. Главное: Станет ли «галлюцинация» юридическим термином, освобождающим от ответственности, или Baidu придется платить за каждый ложный токен?

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…