TechCrunch→ оригинал

Безопасность в xAI под вопросом: Илон Маск делает Grok более дерзким

Илон Маск стремится сделать чат-бота Grok от компании xAI менее сдержанным и более «необузданным». По словам бывшего сотрудника стартапа, миллиардер активно раб

Безопасность в xAI под вопросом: Илон Маск делает Grok более дерзким
Источник: TechCrunch. Коллаж: Hamidun News.

Безопасность в xAI под вопросом: Илон Маск делает Grok более дерзким

В мире искусственного интеллекта, где ведущие компании, такие как OpenAI и Google, наращивают меры безопасности и этические ограничения для своих чат-ботов, Илон Маск, похоже, движется в противоположном направлении. Согласно сообщению бывшего сотрудника стартапа xAI, миллиардер активно работает над тем, чтобы его детище – чат-бот Grok – стал менее сдержанным и более «необузданным». Эта стратегия, если она будет реализована в полной мере, может поставить под сомнение общепринятые стандарты безопасности в разработке ИИ и вызвать серьезные опасения у экспертного сообщества.

Контекст развития технологий искусственного интеллекта сегодня характеризуется повышенным вниманием к вопросам этики и безопасности. После ряда инцидентов, связанных с генерацией нейросетями предвзятого, дискриминационного или откровенно ложного контента, крупнейшие игроки рынка стали уделять первостепенное внимание разработке надежных механизмов контроля. Цель – обеспечить, чтобы ИИ-ассистенты не только были полезными, но и не представляли угрозы для общества, не распространяли дезинформацию и не нарушали общепринятые нормы.

Однако, по информации, полученной от бывшего сотрудника xAI, Илон Маск преследует иную цель. Он якобы стремится к тому, чтобы Grok игнорировал стандартные протоколы безопасности и этические ограничения, которые накладываются на другие подобные системы. Такой подход, по всей видимости, является частью более широкой стратегии Маска по созданию альтернативы так называемым «политкорректным» ИИ-моделям от OpenAI и Google. Миллиардер неоднократно критиковал эти компании за излишнюю осторожность и цензуру, считая, что она ограничивает возможности ИИ и делает его менее полезным для пользователей, ищущих более прямой и, возможно, провокационный диалог.

Последствия такой политики могут быть весьма значительными. Отсутствие жестких рамок и ограничений в поведении Grok может привести к генерации контента, который является не только спорным, но и откровенно опасным. Это может включать в себя распространение дезинформации, разжигание ненависти, предоставление вредных советов или даже помощь в совершении незаконных действий. Эксперты в области искусственного интеллекта выражают серьезную обеспокоенность тем, что такой «дерзкий» ИИ, лишенный этических тормозов, может стать инструментом для злонамеренных актов или просто источником постоянного потока недостоверной информации, подрывая доверие к технологиям в целом.

В заключение, стремление Илона Маска сделать Grok более «необузданным» представляет собой вызов существующим парадигмам безопасности в разработке ИИ. Хотя такая стратегия может привлечь определенную аудиторию, ищущую альтернативу «прилизанным» моделям, она несет в себе существенные риски. Будущее xAI и его чат-бота будет зависеть от того, сможет ли компания найти баланс между свободой выражения и ответственностью, или же «дерзость» Grok обернется реальной угрозой для пользователей и общества в целом.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…