TechCrunch→ оригинал

Кэмпбелл Браун о том, кто решает, что говорит вам AI

Кэмпбелл Браун, экс-глава новостного отдела Meta, поднимает острый вопрос о контроле информации в AI. В Silicon Valley обсуждают архитектуру алгоритмов и прозра

Кэмпбелл Браун о том, кто решает, что говорит вам AI
Источник: TechCrunch. Коллаж: Hamidun News.
◐ Слушать статью

Кэмпбелл Браун указывает на фундаментальное расхождение: когда технологические компании обсуждают AI и информацию, они говорят об одном, а потребители заботятся о совершенно другом.

Silicon

Valley против потребителей В Silicon Valley обсуждение сосредоточено на архитектуре AI-систем, прозрачности алгоритмов и научных подходах к fairness. Компании говорят о том, как построены модели, какие данные использовались, как минимизировать смещения в результатах, как обеспечить alignment между намерениями разработчика и поведением системы. Потребители же сосредоточены на совсем другом вопросе. Их не интересуют технические детали устройства AI. Их волнует контроль и доверие в самом простом смысле: кто решает, какую информацию я вижу? Когда я пишу запрос в ChatGPT или Claude, кто определяет границы ответа? Какие невидимые правила управляют тем, что я получу в результате?

«Разговор в Silicon Valley идёт об одном, а совсем другой разговор происходит среди потребителей»

Эта цитата захватывает суть проблемы. Две стороны говорят на разных языках и о разных проблемах.

Информационный контроль — главный вопрос

По мнению Браун, ядро проблемы в том, что вопрос о контроле информации остаётся нерешённым. Когда редакции контролировали информацию, это было явно — редакторы выбирали, что публиковать, их можно было критиковать или судить. Правила были относительно открыты.

Сейчас эту роль информационного гейткипера берут на себя AI-компании, но с гораздо меньшей прозрачностью. Потребители видят результат, но не видят логику. Браун выделяет несколько ключевых проблем: AI-системы не просто предоставляют данные — они активно выбирают, что показывать и как формулировать Критерии выбора часто даже для самих компаний остаются в чёрном ящике нейросети Потребители не знают и не могут узнать, почему они видят одно, а не другое Ответственность размыта между компанией, инженерами и алгоритмом ## Откуда берётся этот разрыв Браун указывает на глубокое культурное расхождение.

Технологи думают о как строить, потребители думают о как контролировать. Когда компания говорит «у нас есть safeguards и слои безопасности», потребитель слышит: «вы фильтруете то, что я вижу, и я не могу повлиять на этот фильтр». Это особенно острый вопрос в контексте новостей, политики и выборов — областей, где информационный контроль имеет прямые и видимые последствия для общества.

Что это значит Браун указывает на отсутствие подлинного диалога.

Silicon Valley решает задачу: как улучшить AI, сделать его безопаснее и честнее. Потребители решают другую задачу: как вернуть контроль и понять логику. Пока эти разговоры идут параллельно, ни одна из сторон не услышит друг друга.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Что вы думаете?
Загружаем комментарии…