ChatGPT et Anthropic ont renforcé la tendance au "véganisme de l’AI" : pourquoi la fatigue envers les réseaux neuronaux augmente
Les réseaux neuronaux sont devenus un outil de travail pour des millions de personnes, mais avec leurs avantages grandit aussi le désir de limiter leur présence
ИИ стал частью повседневной работы и общения быстрее, чем успело сформироваться доверие к нему. На фоне роста аудитории ChatGPT и массового внедрения нейросетей всё заметнее движение пользователей, которые хотят ограничить ИИ в работе, учёбе и даже личной жизни.
Почему появился отказ
По данным исследования НАФИ и «Ингосстраха», 43% россиян готовы отказаться от искусственного интеллекта навсегда. На этом фоне всё чаще звучит термин «ИИ-веганство» — осознанное ограничение нейросетей в повседневности, работе и учёбе. Логика здесь примерно та же, что и у цифрового детокса: технологии полезны, но их избыток начинает давить.
Парадокс в том, что происходит это не на периферии рынка, а в момент, когда ChatGPT приближается к аудитории почти в миллиард еженедельных пользователей и становится привычным бытовым инструментом. Отказ подпитывается не только усталостью, но и страхом за карьеру. Компании активно внедряют ИИ в разработку, поддержку и аналитику, а вокруг рынка не утихают разговоры о сокращениях и замене специалистов агентами.
При этом картина остаётся противоречивой: одни команды ускоряют работу за счёт нейросетей, другие возвращают людей на роли, которые пытались автоматизировать, а параллельно возникают новые профессии — от ИИ-тренеров до специалистов по этике. Для пользователя это выглядит не как ясная стратегия, а как эксперимент с непредсказуемыми последствиями.
Польза без магии Несмотря на тревогу, запрос на ИИ только растёт.
В исследовании Anthropic с участием более 80 тысяч пользователей Claude из 159 стран люди чаще всего говорили, что ждут от таких систем профессионального совершенствования, личной трансформации и помощи в управлении собственной жизнью. На практике картина более приземлённая: лучше всего ИИ оправдывает ожидания там, где нужен рост продуктивности, быстрое структурирование мыслей и поддержка в обучении. При этом почти каждый пятый участник всё равно признал, что нейросеть не дала того результата, на который он рассчитывал.
Это и есть главный разрыв между маркетинговым образом ИИ и реальным опытом. Пользователи хотят не чудо-машину, а понятного помощника, который ускоряет рутину, помогает анализировать данные и предлагает черновики решений, но не притворяется безошибочным экспертом. Пока что лучшие сценарии использования остаются вполне прикладными: написать первый драфт, собрать выводы из массива информации, подсветить идеи или помочь разобраться в новой теме.
Как только ИИ начинает изображать универсальный авторитет, доверие быстро проседает.
Откуда берётся тревога
Мониторинг телеканала «Наука» и института MOMRI показывает, что искусственный интеллект уже третий год подряд лидирует среди самых тревожащих направлений научного прогресса. По итогам 2025 года доля россиян, которых пугает развитие ИИ и нейросетей, выросла с 15% до 27%. Людей беспокоит не только сама скорость изменений, но и ощущение, что правила игры ещё не определены: системы становятся доступнее и влиятельнее быстрее, чем появляется понятный контроль над их качеством и применением.
«Топ страхов, связанных с ИИ, возглавляет ненадёжность.»
- Галлюцинации и ошибки: исследование Columbia Journalism Review показало, что поисковые системы с ИИ часто неверно цитируют новостные источники.
- Риск вытеснения с рынка труда: страх автоматизации усиливают громкие заявления компаний и лидеров индустрии.
- Фишинг и дипфейки: по данным Microsoft, на автоматизированные ИИ-фишинговые письма пользователи кликают заметно чаще, чем на письма, написанные людьми.
- Псевдоподдержка: петербургские исследователи ВШЭ обнаружили, что языковые модели более чем в 20% случаев неадекватно отвечают на запросы людей, которым нужна психологическая помощь. Отдельная зона риска — эмоциональная зависимость от чат-ботов. Когда ИИ используют как «психолога», собеседника для примирения в отношениях или источник жизненных решений, на первый план выходит не удобство, а безопасность. Нейросеть может нормализовать опасные симптомы, предложить манипулятивную стратегию общения или просто уверенно посоветовать неподходящее решение. Именно поэтому настороженность к ИИ сегодня связана не только с работой, но и с попыткой не пустить алгоритм в слишком чувствительные зоны человеческой жизни.
Что это значит «ИИ-веганство» не выглядит массовым отказом от
технологий, но становится понятной реакцией на завышенные ожидания и реальный риск ошибок. Скорее всего, рынок придёт не к тотальному принятию или запрету, а к более жёсткому выборочному использованию ИИ: там, где он экономит время и помогает думать, его будут внедрять ещё быстрее, а в вопросах денег, здоровья, безопасности и эмоций спрос на человеческую проверку только вырастет.