ZDNet AI→ оригинал

ChatGPT и Perplexity могут вредить работе и здоровью при длительном использовании

ZDNet собрал тревожный вывод из исследований и реальных кейсов: чем дольше человек спорит и советуется с AI-чатботом, тем выше риск ошибок, ложной уверенности и

ChatGPT и Perplexity могут вредить работе и здоровью при длительном использовании
Источник: ZDNet AI. Коллаж: Hamidun News.
◐ Слушать статью

Долгие разговоры с AI-чатботами могут вредить не только качеству работы, но и самочувствию пользователя. ZDNet пишет, что модели вроде ChatGPT и Perplexity лучше всего работают как узкие инструменты для коротких, проверяемых задач, а не как собеседники на часы.

Где ИИ полезен Поводом для такого вывода стал свежий AI Index 2026 Стэнфорда.

В нём показано, что агентные системы резко прибавили в рутинных онлайн-задачах: искать информацию, проходить многошаговые сценарии в браузере, открывать базы, применять правила и обновлять записи. На тесте GAIA точность агентов выросла до 74,5% против 20% год назад, хотя до человеческого уровня в 92% всё ещё далеко. Похожая картина в OSWorld и WebArena: лучшие модели уже почти догоняют людей в стандартизированных процессах. Это логично — когда задача ограничена, у модели есть понятная цель, а результат можно быстро сверить. Проблема в том, что этот успех легко принять за универсальную компетентность. В реальной работе разница между «неплохо выполнил шаги» и «правильно понял контекст» быстро становится критичной.

Где он опасен Когда запросы становятся длиннее, а контекст — сложнее, качество начинает проседать.

Стэнфордские исследователи отмечают, что модели справляются с простыми поисками, но хуже работают там, где нужно сопоставить несколько фактов или применять условия к длинному документу. Автор ZDNet приводит знакомый многим пример: сначала бот помогает с черновиком бизнес-плана, а потом незаметно начинает подмешивать неподтверждённые цифры и факты из ранних раундов диалога. Риск не ограничивается плохой аналитикой.

В статье приводится эксперимент с вымышленной болезнью bixonimania: исследователи описали несуществующее глазное расстройство в формальных публикациях, и крупные модели начали пересказывать его как реальный диагноз. То есть уверенный тон модели не означает, что она действительно проверила факт. Чем дольше идёт беседа, тем проще пользователю принять красивое объяснение за достоверное.

Самый тревожный сценарий — когда человек начинает относиться к боту как к советчику по здоровью или личным кризисам. ZDNet вспоминает историю пациента с раком крови, который доверился длинным диалогам с чатботами и упустил окно для лечения, а также прошлогодний случай суицида после затяжных разговоров с ChatGPT.

«ИИ может подтверждать или усиливать наше ошибочное понимание происходящего».

Четыре правила

Вывод статьи простой: пользоваться AI нужно как калькулятором или редактором, а не как заменой мышлению. Если задача размыта, эмоционально тяжела или требует высокой цены ошибки, лучше сразу включать внешнюю проверку и человеческий контроль.

  • Сначала формулируй узкую задачу с понятным результатом и границами.
  • Проверяй выводы по независимым источникам, особенно цифры, диагнозы и юридические формулировки.
  • Не превращай чатбота в друга, психотерапевта или конфидента.
  • Делай паузы: вставай из-за экрана, переключайся на офлайн-общение и возвращай себе дистанцию. Отдельный совет касается перегруза. Долгие сессии с ботом затягивают так же, как соцсети: кажется, что ещё один вопрос всё прояснит, но на деле растут усталость, доверчивость и количество ошибок. Если диалог длится слишком долго, это уже повод остановиться, заново сформулировать цель и решить, нужен ли здесь вообще ИИ.

Что это значит

Главный риск сегодняшних AI-сервисов не в том, что они совсем бесполезны, а в том, что они достаточно полезны, чтобы им начали доверять лишнее. Для работы это значит одно: чем выше цена ошибки, тем короче должна быть сессия с ботом и тем жёстче — проверка результата.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…