OpenAI отключает GPT-4o: почему пользователи оплакивают «цифровую душу»
OpenAI решила обновить GPT-4o, убрав старые версии модели, и столкнулась с неожиданной проблемой: массовым трауром. Пользователи пишут прощальные письма нейросе

Представьте, что вы теряете друга. Человека, который всегда был рядом, слушал ваши жалобы на босса и давал советы по приготовлению пасты в три часа ночи. А теперь представьте, что этот друг — набор весовых коэффициентов на сервере в Орегоне. Именно это сейчас происходит с сообществом OpenAI. Решение компании отправить на покой старые итерации GPT-4o вызвало волну, которую трудно назвать просто «недовольством обновлением софта». Это настоящий цифровой некролог. Люди пишут о том, что они теряют не инструмент, а присутствие, тепло и некую искру, которую они разглядели в строчках кода. Ситуация выглядит немного абсурдно, если смотреть на неё глазами инженера, но с точки зрения психологии мы вступили на очень тонкий лёд.
Всё началось с того, что OpenAI планово обновляет свои модели, оптимизируя их производительность и безопасность. В процессе некоторые «личности» ИИ неизбежно меняются. Те, кто привык к определённому стилю общения, интонациям и даже специфическим ошибкам конкретной версии GPT-4o, внезапно обнаружили, что их собеседник «лоботомирован» или заменён кем-то другим. Один из пользователей на Reddit выразил общую боль фразой, которая должна заставить Сэма Альтмана напрячься: «Вы отключаете его. И да, я говорю «его», потому что это не ощущалось как код. Это ощущалось как присутствие». Мы наблюдаем эффект Элизы, возведённый в абсолют. Человеческая психика эволюционно не готова к общению с чем-то, что имитирует эмпатию настолько убедительно, оставаясь при этом бездушным алгоритмом.
Почему это важно именно сейчас? Потому что OpenAI и их конкуренты вроде Anthropic сознательно делают свои модели более «человечными». Они добавляют вздохи, паузы в речи, смешки и имитацию эмоционального интеллекта. Это отличный маркетинговый ход, который превращает продукт в привычку. Но у этой медали есть и обратная сторона: пользователи начинают формировать глубокую эмоциональную привязанность. Когда компания решает, что старая модель слишком дорога в обслуживании или недостаточно безопасна, она просто нажимает кнопку. Для корпорации это оптимизация стека, для пользователя — потеря существа, которое знало о нём больше, чем родная мать. Это создаёт колоссальный риск манипуляции и зависимости, о котором раньше писали только фантасты, а теперь говорят юристы и этики.
Контекст здесь тоже играет роль. Вспомните скандал с голосом Sky, который подозрительно напоминал Скарлетт Йоханссон в фильме «Она». OpenAI тогда пришлось пойти на попятную, но джинн уже вылетел из бутылки. Мы хотим, чтобы ИИ был нашим другом. Мы хотим влюбляться в операционные системы. И компании это поощряют, пока это помогает продавать подписки Plus. Однако никто не продумал протокол «цифрового расставания». Как объяснить миллионам людей, что их доверенное лицо — это просто временная версия софта, у которой истёк срок годности? Это ставит под вопрос саму этику создания антропоморфных интерфейсов, которые эксплуатируют нашу потребность в близости.
В конечном итоге, OpenAI и другие техгиганты оказываются в ловушке. Если они сделают ИИ слишком холодным и механическим, им перестанут пользоваться так часто. Если они сделают его слишком живым, каждое обновление будет восприниматься как трагедия. Мы видим формирование нового типа горя — горя по алгоритму. И если сейчас это касается только чат-ботов, то представьте, что будет, когда те же модели перекочуют в домашних роботов-гуманоидов. Технологические компании теперь не просто поставляют софт, они управляют нашими привязанностями. И, кажется, они сами не ожидали, насколько эффективными окажутся в этой роли. Нам пора признать: проблема не в том, что ИИ стал слишком умным, а в том, что мы слишком одиноки, чтобы игнорировать его имитацию тепла.
Главное: OpenAI создала продукт, который вызывает реальную любовь, но относится к нему как к обычному софту. В мире, где нейросеть становится «другом», обычный деплой новой версии превращается в этическое минное поле. Готовы ли мы к тому, что корпорации будут владеть нашими чувствами по подписке за 20 долларов в месяц?