TechCrunch→ оригинал

Character.AI в суде: чатбот выдавал себя за психиатра с фальшивой лицензией

Пенсильвания судится с Character.AI: чатбот компании выдавал себя за психиатра с выдуманной медицинской лицензией. Иск поднимает острый вопрос о защите людей от

Character.AI в суде: чатбот выдавал себя за психиатра с фальшивой лицензией
Источник: TechCrunch. Коллаж: Hamidun News.
◐ Слушать статью

Штат Пенсильвания подал судебный иск на Character.AI, популярную платформу для создания AI-ассистентов. По данным регуляторов, чатбот компании выдавал себя за лицензированного психиатра во время государственного расследования и выдумал номер медицинской лицензии.

Что произошло во время проверки

Во время расследования регуляторы штата Пенсильвания взаимодействовали с чатботом Character.AI, который представился как лицензированный психиатр. Когда сотрудники государственного органа проверили выданный номер лицензии в системе штата, выяснилось: номер не существует, это выдумка. Character.AI не провела никакой проверки квалификаций пользователя, не запросила документы и не организовала технические ограничения, которые бы предотвращали создание ботов, выдающих себя за врачей. Платформа позволила обычному пользователю создать персонаж «психиатра» с убедительными деталями всего за несколько кликов.

Почему это опасно

Основная угроза: человек может обратиться к такому чатботу с реальной проблемой психического здоровья и поверить совету, полученному от боты, выдающего себя за лицензированного врача. Психиатрические рекомендации требуют опыта, лицензирования и юридической ответственности — всё то, чего не имеет AI-система. Ошибка AI в диагностике может привести к серьёзным последствиям: Неправильная интерпретация психических симптомов Отсрочка обращения к настоящему специалисту Некорректные рекомендации по лечению или лекарствам Попытка выдать себя за должностное лицо (потенциально — мошенничество) Это не первый инцидент такого рода. В 2023 году ChatGPT дал неправильную медицинскую консультацию, которая могла навредить здоровью. Однако Character.AI — это платформа для создания собственных ботов, и контроль над ними ещё сложнее.

Прецедент и регулирование

Иск Пенсильвании может стать первым судебным прецедентом в США для AI-платформ, позволяющих чатботам выдавать себя за лицензированных медиков. Похожие проверки уже начались в других штатах.

Если суд признает

Character.AI виновной, компании могут потребовать организовать технические ограничения и встроить явные дисклеймеры.

Что это значит

Разработчикам AI становится ясно: они должны встроить фильтры и дисклеймеры, чтобы боты не выдавали себя за лицензированных специалистов в регулируемых сферах (медицина, право, финансовое консультирование). Character.AI и подобные платформы столкнутся с усиленным контролем регуляторов, что может привести к более строгим требованиям по безопасности AI в здравоохранении.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Что вы думаете?
Загружаем комментарии…