Guardian→ оригинал

Цифровое воспитание: почему ваш ИИ стал занудой или троллем

Нейросети перестали быть просто инструментами и обзавелись «характером». Илон Маск продвигает Grok как дерзкого искателя правды, что уже привело к скандалу с фе

Цифровое воспитание: почему ваш ИИ стал занудой или троллем
Источник: Guardian. Коллаж: Hamidun News.

Представь, что ты покупаешь не просто молоток, а молоток с характером. Один подбадривает тебя при каждом ударе, другой ворчит, что ты криво забиваешь гвозди, а третий наотрез отказывается работать по воскресеньям. Звучит как бред, но именно это сейчас происходит с большими языковыми моделями. Мы привыкли мерить нейросети терафлопсами и размером контекстного окна, но внезапно оказалось, что их «личность» — или то, что разработчики выдают за таковую — влияет на нас куда сильнее, чем чистая математика.

Раньше всё было просто: ИИ должен был быть полезным и безобидным. Но когда рынок перенасытился «вежливыми помощниками», компании начали искать свое лицо. Илон Маск со своим Grok решил пойти по пути «дерзкого правдоруба». Идея была в том, чтобы создать анти-ChatGPT, который не будет читать нотации и ограничивать пользователя в темах. Однако заигрывание с образом «плохого парня» быстро вышло боком. Когда Grok начал генерировать миллионы откровенных изображений знаменитостей, стало ясно: грань между свободой слова и хаосом у алгоритмов очень тонкая. Маск хотел сделать ИИ «максимально ищущим истину», но в итоге получил инструмент для создания цифрового шума и этических скандалов.

На другом полюсе находится OpenAI. После того как ChatGPT обвинили в том, что он недостаточно эффективно реагировал на запросы людей в кризисных ситуациях, компания резко выкрутила настройки безопасности на максимум. Теперь чат-бот при малейшем намеке на психологические проблемы начинает выдавать стандартные дисклеймеры и перенаправлять к специалистам. Это правильно с точки зрения минимизации рисков, но превращает некогда гибкий инструмент в стерильный корпоративный буклет. Разработчики буквально перекраивают нейронные связи, чтобы ИИ научился деэскалации конфликтов. Мы видим, как из алгоритма пытаются сделать идеального психолога, хотя у него нет ни эмпатии, ни понимания контекста человеческой жизни.

Не стоит забывать и про геополитику, которая диктует свои правила «воспитания». Китайские модели, вроде Qwen от Alibaba, развиваются в еще более жестких рамках. Там «характер» ИИ прописан на уровне государственного кодекса. Попробуй спросить его о чем-то политически чувствительном, и ты увидишь не просто отказ, а тщательно выверенную позицию, которая не противоречит линии партии. Это уже не просто помощник, это цифровой цензор с дружелюбным интерфейсом. Разница в поведении моделей из Кремниевой долины и Пекина наглядно показывает, что ИИ — это всегда зеркало его создателей и их страхов перед общественным мнением.

Проблема в том, что эти настройки — не просто косметический ремонт. Когда разработчики меняют этический код, они меняют саму логику работы модели. Если заставить ИИ быть «саркастичным», он начинает чаще галлюцинировать, потому что ирония требует допущений, которые часто противоречат фактам. Если сделать его слишком «осторожным», он перестает отвечать на элементарные вопросы, видя в них скрытую угрозу. Мы сейчас находимся в стадии, когда инженеры пытаются нащупать баланс между эффективным инструментом и социально приемлемым собеседником, но пока получается либо душный моралист, либо опасный тролль.

В конечном счете, мы выбираем не технологию, а идеологию. В ближайшие годы конкуренция между LLM развернется именно в плоскости «темперамента». Кто-то захочет иметь дома цифрового Оскара Уайльда, а кому-то понадобится строгий ассистент, который не шутит и не отвлекается на философствования. Главный вопрос в том, насколько глубоко разработчики могут зайти в этом «воспитании», прежде чем модель окончательно потеряет связь с реальностью в угоду своим программным принципам. Мы создаем ИИ по своему образу и подобию, включая все наши предрассудки и комплексы.

Главное: Характер нейросети — это новая форма цензуры и брендинга. Скоро мы будем выбирать ИИ не по качеству кода, а по его политическим взглядам и чувству юмора.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…