Кэмпбелл Браун о том, кто решает, что говорит вам AI
Кэмпбелл Браун, экс-глава новостного отдела Meta, поднимает острый вопрос о контроле информации в AI. В Silicon Valley обсуждают архитектуру алгоритмов и прозра

Кэмпбелл Браун указывает на фундаментальное расхождение: когда технологические компании обсуждают AI и информацию, они говорят об одном, а потребители заботятся о совершенно другом.
Silicon
Valley против потребителей В Silicon Valley обсуждение сосредоточено на архитектуре AI-систем, прозрачности алгоритмов и научных подходах к fairness. Компании говорят о том, как построены модели, какие данные использовались, как минимизировать смещения в результатах, как обеспечить alignment между намерениями разработчика и поведением системы. Потребители же сосредоточены на совсем другом вопросе. Их не интересуют технические детали устройства AI. Их волнует контроль и доверие в самом простом смысле: кто решает, какую информацию я вижу? Когда я пишу запрос в ChatGPT или Claude, кто определяет границы ответа? Какие невидимые правила управляют тем, что я получу в результате?
«Разговор в Silicon Valley идёт об одном, а совсем другой разговор происходит среди потребителей»
Эта цитата захватывает суть проблемы. Две стороны говорят на разных языках и о разных проблемах.
Информационный контроль — главный вопрос
По мнению Браун, ядро проблемы в том, что вопрос о контроле информации остаётся нерешённым. Когда редакции контролировали информацию, это было явно — редакторы выбирали, что публиковать, их можно было критиковать или судить. Правила были относительно открыты.
Сейчас эту роль информационного гейткипера берут на себя AI-компании, но с гораздо меньшей прозрачностью. Потребители видят результат, но не видят логику. Браун выделяет несколько ключевых проблем: AI-системы не просто предоставляют данные — они активно выбирают, что показывать и как формулировать Критерии выбора часто даже для самих компаний остаются в чёрном ящике нейросети Потребители не знают и не могут узнать, почему они видят одно, а не другое Ответственность размыта между компанией, инженерами и алгоритмом ## Откуда берётся этот разрыв Браун указывает на глубокое культурное расхождение.
Технологи думают о как строить, потребители думают о как контролировать. Когда компания говорит «у нас есть safeguards и слои безопасности», потребитель слышит: «вы фильтруете то, что я вижу, и я не могу повлиять на этот фильтр». Это особенно острый вопрос в контексте новостей, политики и выборов — областей, где информационный контроль имеет прямые и видимые последствия для общества.
Что это значит Браун указывает на отсутствие подлинного диалога.
Silicon Valley решает задачу: как улучшить AI, сделать его безопаснее и честнее. Потребители решают другую задачу: как вернуть контроль и понять логику. Пока эти разговоры идут параллельно, ни одна из сторон не услышит друг друга.