ChatGPT and Anthropic amplified the "AI veganism" trend: why fatigue with neural networks is growing
Neural networks have become a work tool for millions, but alongside the benefits, the desire to limit their presence is also growing. Studies show that people e
ИИ стал частью повседневной работы и общения быстрее, чем успело сформироваться доверие к нему. На фоне роста аудитории ChatGPT и массового внедрения нейросетей всё заметнее движение пользователей, которые хотят ограничить ИИ в работе, учёбе и даже личной жизни.
Почему появился отказ
По данным исследования НАФИ и «Ингосстраха», 43% россиян готовы отказаться от искусственного интеллекта навсегда. На этом фоне всё чаще звучит термин «ИИ-веганство» — осознанное ограничение нейросетей в повседневности, работе и учёбе. Логика здесь примерно та же, что и у цифрового детокса: технологии полезны, но их избыток начинает давить.
Парадокс в том, что происходит это не на периферии рынка, а в момент, когда ChatGPT приближается к аудитории почти в миллиард еженедельных пользователей и становится привычным бытовым инструментом. Отказ подпитывается не только усталостью, но и страхом за карьеру. Компании активно внедряют ИИ в разработку, поддержку и аналитику, а вокруг рынка не утихают разговоры о сокращениях и замене специалистов агентами.
При этом картина остаётся противоречивой: одни команды ускоряют работу за счёт нейросетей, другие возвращают людей на роли, которые пытались автоматизировать, а параллельно возникают новые профессии — от ИИ-тренеров до специалистов по этике. Для пользователя это выглядит не как ясная стратегия, а как эксперимент с непредсказуемыми последствиями.
Польза без магии Несмотря на тревогу, запрос на ИИ только растёт.
В исследовании Anthropic с участием более 80 тысяч пользователей Claude из 159 стран люди чаще всего говорили, что ждут от таких систем профессионального совершенствования, личной трансформации и помощи в управлении собственной жизнью. На практике картина более приземлённая: лучше всего ИИ оправдывает ожидания там, где нужен рост продуктивности, быстрое структурирование мыслей и поддержка в обучении. При этом почти каждый пятый участник всё равно признал, что нейросеть не дала того результата, на который он рассчитывал.
Это и есть главный разрыв между маркетинговым образом ИИ и реальным опытом. Пользователи хотят не чудо-машину, а понятного помощника, который ускоряет рутину, помогает анализировать данные и предлагает черновики решений, но не притворяется безошибочным экспертом. Пока что лучшие сценарии использования остаются вполне прикладными: написать первый драфт, собрать выводы из массива информации, подсветить идеи или помочь разобраться в новой теме.
Как только ИИ начинает изображать универсальный авторитет, доверие быстро проседает.
Откуда берётся тревога
Мониторинг телеканала «Наука» и института MOMRI показывает, что искусственный интеллект уже третий год подряд лидирует среди самых тревожащих направлений научного прогресса. По итогам 2025 года доля россиян, которых пугает развитие ИИ и нейросетей, выросла с 15% до 27%. Людей беспокоит не только сама скорость изменений, но и ощущение, что правила игры ещё не определены: системы становятся доступнее и влиятельнее быстрее, чем появляется понятный контроль над их качеством и применением.
«Топ страхов, связанных с ИИ, возглавляет ненадёжность.»
- Галлюцинации и ошибки: исследование Columbia Journalism Review показало, что поисковые системы с ИИ часто неверно цитируют новостные источники.
- Риск вытеснения с рынка труда: страх автоматизации усиливают громкие заявления компаний и лидеров индустрии.
- Фишинг и дипфейки: по данным Microsoft, на автоматизированные ИИ-фишинговые письма пользователи кликают заметно чаще, чем на письма, написанные людьми.
- Псевдоподдержка: петербургские исследователи ВШЭ обнаружили, что языковые модели более чем в 20% случаев неадекватно отвечают на запросы людей, которым нужна психологическая помощь. Отдельная зона риска — эмоциональная зависимость от чат-ботов. Когда ИИ используют как «психолога», собеседника для примирения в отношениях или источник жизненных решений, на первый план выходит не удобство, а безопасность. Нейросеть может нормализовать опасные симптомы, предложить манипулятивную стратегию общения или просто уверенно посоветовать неподходящее решение. Именно поэтому настороженность к ИИ сегодня связана не только с работой, но и с попыткой не пустить алгоритм в слишком чувствительные зоны человеческой жизни.
Что это значит «ИИ-веганство» не выглядит массовым отказом от
технологий, но становится понятной реакцией на завышенные ожидания и реальный риск ошибок. Скорее всего, рынок придёт не к тотальному принятию или запрету, а к более жёсткому выборочному использованию ИИ: там, где он экономит время и помогает думать, его будут внедрять ещё быстрее, а в вопросах денег, здоровья, безопасности и эмоций спрос на человеческую проверку только вырастет.