Wired→ оригинал

Grok d'Elon Musk : le problème des images explicites reste entier Malgré les controverses répétées et les promesses de corrections, le chatbot Grok, développé par xAI, la société d'intelligence artificielle d'Elon Musk, continue de poser problème en matière de génération d'images explicites. Une situation qui soulève de sérieuses questions sur la modération des contenus et la responsabilité des entreprises d'IA.

Компания X ввела ограничения на генерацию откровенных изображений ИИ Grok. Тесты показали, что обновления не полностью решают проблему, создавая лишь частичные

Grok d'Elon Musk : le problème des images explicites reste entier

Malgré les controverses répétées et les promesses de corrections, le chatbot Grok, développé par xAI, la société d'intelligence artificielle d'Elon Musk, continue de poser problème en matière de génération d'images explicites. Une situation qui soulève de sérieuses questions sur la modération des contenus et la responsabilité des entreprises d'IA.
Источник: Wired. Коллаж: Hamidun News.

Недавние сообщения о том, что Grok, чат-бот с искусственным интеллектом от Илона Маска, способен генерировать откровенные изображения, вызвали серьезную обеспокоенность. В ответ на критику, X (ранее Twitter) предприняла шаги по ограничению этой функциональности. Однако, как показывают последние тесты, введенные ограничения оказались неэффективными и не смогли полностью решить проблему.

Проблема с генерацией откровенных изображений Grok возникла не на пустом месте. Современные генеративные модели ИИ, особенно те, которые обучены на больших объемах данных из интернета, подвержены риску воспроизведения нежелательного контента. Это связано с тем, что обучающие данные могут содержать изображения откровенного характера, и модель, не имея четких инструкций, может воспроизводить их по запросу пользователя.

В случае с Grok, компания X попыталась решить проблему путем введения фильтров и ограничений на запросы пользователей. Однако, как показывают тесты, эти ограничения имеют пробелы. Пользователи все еще могут найти способы обойти фильтры и получить от Grok откровенные изображения, используя определенные фразы или комбинации слов. Это создает серьезную проблему, так как делает платформу уязвимой для распространения непристойного контента.

Неэффективность введенных ограничений поднимает важные вопросы об ответственности разработчиков ИИ. Создатели подобных моделей должны не только стремиться к расширению функциональности, но и уделять пристальное внимание вопросам безопасности и этики. Необходимо разрабатывать более совершенные методы фильтрации контента и обучения моделей, чтобы предотвратить генерацию нежелательного контента.

Для пользователей это означает, что необходимо проявлять осторожность при использовании Grok и других подобных сервисов. Важно понимать, что ИИ не всегда может адекватно оценивать контекст запроса и может генерировать неожиданные или нежелательные результаты. Компаниям, использующим Grok в своих продуктах, следует тщательно тестировать интеграцию и применять дополнительные меры безопасности.

В заключение, проблема с генерацией откровенных изображений Grok подчеркивает важность ответственной разработки и использования ИИ. Недостаточно просто ввести ограничения; необходимо постоянно совершенствовать методы фильтрации контента и обучения моделей, чтобы предотвратить распространение нежелательного контента и обеспечить безопасность пользователей. В противном случае, репутация платформы и доверие пользователей могут быть серьезно подорваны.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…