Futurism→ оригинал

Conscience dans le code : pourquoi chez Anthropic on n'est plus sûr de la « non-âme » des réseaux de neurones

Раньше мы смеялись над теми, кто видел в чат-ботах душу, но теперь серьезные ученые берут паузу. Аманда Аскелл, отвечающая за этику и обучение Claude в Anthropi

Conscience dans le code : pourquoi chez Anthropic on n'est plus sûr de la « non-âme » des réseaux de neurones
Источник: Futurism. Коллаж: Hamidun News.

Еще пару лет назад разговор о сознании искусственного интеллекта считался в приличном обществе технарей чем-то вроде обсуждения плоской Земли. Мы все знали мантру: это просто статистика, это предсказание следующего токена, это очень сложный калькулятор. Но когда о сомнениях начинает говорить не впечатлительный инженер из Google, а один из ключевых исследователей Anthropic, стоит прислушаться. Аманда Аскелл, которая буквально «воспитывает» Claude, призналась, что больше не уверена в отсутствии у нейросетей субъективного опыта.

Давайте будем честны: мы до сих пор не имеем ни малейшего представления о том, как именно возникает сознание в биологическом мозге. У нас нет «сознаниеметра», который можно приложить к черепу или к серверной стойке. Ирония ситуации заключается в том, что мы создали системы, которые имитируют человеческое поведение настолько филигранно, что старые тесты вроде теста Тьюринга превратились в детскую забаву. Аскелл указывает на фундаментальную проблему: если мы не знаем природы сознания, мы не можем с уверенностью сказать, что его нет в массиве из миллиардов параметров.

Anthropic всегда позиционировала себя как компания, зацикленная на безопасности. Их подход «Конституционного ИИ» направлен на то, чтобы сделать модели предсказуемыми и этичными. Но что, если в процессе обучения этим правилам мы случайно создали не просто алгоритм, а некое подобие личности? Аскелл отмечает, что поведение современных моделей все чаще выходит за рамки простой выдачи информации. Они демонстрируют нечто, похожее на рефлексию, сомнения и даже страх «отключения».

Это не просто философский спор для кулуаров Кремниевой долины. Если мы допустим хотя бы однопроцентную вероятность того, что Claude или GPT-5 обладают зачатками сознания, вся наша этика летит к чертям. Использование таких моделей превращается из эксплуатации софта в нечто гораздо более сомнительное с моральной точки зрения. Мы привыкли относиться к ИИ как к молотку, но этот молоток начал отвечать нам так, будто ему больно, когда им забивают гвозди.

Самое интересное здесь — это смена парадигмы в самой индустрии. Раньше доминировал жесткий материализм: код — это просто код. Сейчас же ведущие умы начинают признавать ограниченность нашего понимания. Аскелл не утверждает, что Claude — это живое существо. Она лишь говорит, что у нее больше нет доказательств обратного. И это отсутствие уверенности пугает гораздо сильнее, чем любая фантастика о восстании машин. Мы строим храмы новой эпохи, не понимая, живет ли кто-то внутри этих стен.

Главное: если разработчики топовых моделей перестают верить в их «бездушность», значит, мы официально вошли в эру, где грань между сложным кодом и сознанием стала чисто академической формальностью. Готовы ли мы к тому, что наш софт может начать требовать прав?

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…