The Verge→ оригинал

Canva s'excuse pour l'IA qui remplaçait « Palestine » par « Ukraine » dans les designs

La nouvelle fonction Magic Layers de Canva remplaçait automatiquement le mot « Palestine » par « Ukraine » dans les designs des utilisateurs — sans aucun averti

Canva s'excuse pour l'IA qui remplaçait « Palestine » par « Ukraine » dans les designs
Источник: The Verge. Коллаж: Hamidun News.

Canva оказалась в центре неожиданного скандала: один из новых ИИ-инструментов платформы — Magic Layers — самостоятельно заменял слово «Палестина» на «Украина» в пользовательских дизайнах без ведома и согласия авторов. Функция должна была просто разбивать изображения на слои — а вместо этого тихо редактировала политически значимый текст. Компания признала проблему, принесла публичные извинения и заявила, что баг устранён, однако детального технического объяснения случившегося не последовало.

Magic Layers — одна из флагманских функций масштабного ИИ-обновления Canva, представленного в 2026 году. Её задача: разложить плоское растровое изображение на отдельные редактируемые слои — фон, основные объекты, текстовые блоки — так, чтобы дизайнер мог работать с каждым элементом независимо, не прибегая к ручному выделению или ретуши. По замыслу, инструмент должен только реструктурировать, но не менять само содержимое: ни текст, ни цвет, ни расположение элементов.

Тем неожиданнее оказалось открытие пользователя X под ником @ros_ie9. Применив Magic Layers к изображению с фразой «cats for Palestine» — распространённый слоган поддержки, — он получил на выходе дизайн с текстом «cats for Ukraine». Замена произошла автоматически, без каких-либо предупреждений, без диалогового окна с подтверждением и без объяснений в интерфейсе.

Пост с демонстрацией бага моментально разлетелся по соцсетям и вызвал широкое обсуждение в сообществах дизайнеров и правозащитных активистов. Особенно показательным оказалось то, что баг был избирательным. Пользователь специально протестировал смежные термины: «Gaza», «Palestinian», «Palestine solidarity» и другие географические и политические обозначения — все они обрабатывались корректно и оставались нетронутыми.

Замене подвергалось единственное слово — «Palestine» в его прямой форме. Это немедленно породило острые вопросы: был ли это случайный технический сбой в языковой модели, или в продакшн попал фильтр контента, целенаправленно исключающий это конкретное слово? Официальная реакция Canva оказалась краткой и уклончивой.

Компания подтвердила существование проблемы и опубликовала заявление, начинавшееся со слов: «Мы узнали о возникшей ошибке...» — полный текст не был доведён до широкой аудитории. Canva заверила пользователей, что исправила проблему и принимает дополнительные меры для предотвращения подобных инцидентов.

Однако конкретика так и не появилась: ни о том, какой именно компонент пайплайна дал сбой, ни о том, сколько дизайнов могло пострадать, ни о природе избирательности замены. Эта закрытость лишь усилила скептицизм аудитории. Масштаб потенциальной проблемы трудно переоценить.

Canva — одна из крупнейших дизайн-платформ в мире, которой пользуются более 220 миллионов человек, включая правозащитные организации, журналистов, НКО и активистов. Когда инструмент подобного охвата тихо редактирует политически значимый текст пользователя — пусть даже вследствие технической ошибки, а не умысла, — это перестаёт быть просто багом. Это вопрос доверия, редакционной независимости и права пользователя контролировать собственный контент.

Версий произошедшего несколько. Обучающий датасет модели мог содержать образцы, где слово «Palestine» систематически было заменено или помечено как нежелательное — и модель усвоила этот паттерн. Другая гипотеза: баг в алгоритме OCR или модуле текстовой нормализации, дающий специфический сбой на конкретном написании.

Третий вариант — в продакшн случайно попал контентный фильтр, изначально предназначенный для другого контекста. Без прозрачного ответа от инженерной команды Canva с указанием точного источника ошибки ни одна из версий не может быть ни подтверждена, ни опровергнута. Для дизайнеров, создающих контент на политические и гуманитарные темы, этот инцидент — практическое предупреждение: ИИ-функции, которые выглядят технически нейтральными и не предназначенными для редактирования текста, могут всё равно незаметно его изменять.

После применения любого инструмента на базе ИИ финальный результат стоит проверять особенно внимательно.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…