MIT Presents WRING — A Method to Reduce Bias in AI Vision Models Without New Distortions
MIT, Worcester Polytechnic Institute, and Google unveiled WRING — a new debiasing method for vision-language models like CLIP. Rather than "removing" biased fea

MIT, Worcester Polytechnic Institute и Google представили WRING — новый метод снижения предвзятости в vision-language моделях. Он должен решать старую проблему дебайсинга: убрать один перекос, не создавая другой в соседней части модели.
Почему старые методы ломаются
Проблема bias в компьютерном зрении давно вышла за рамки академических споров. Если модель помогает дерматологу оценивать снимки кожи, перекос в сторону определённого тона кожи может привести к пропущенному риску. То же касается поиска изображений, классификации объектов и любых систем, где модель связывает картинку с текстом.
Исследователи MIT напоминают: предвзятость приходит не только из данных, но и из того, как сама модель организует связи внутри эмбеддингов. Самый популярный способ борьбы с этим — projection debiasing. Упрощённо, из представления модели «вырезают» направление, которое отвечает за нежелательный признак.
На бумаге это выглядит логично, но на практике даёт эффект, который исследователи называют дилеммой Whac-a-mole: убираешь один bias, а в другом месте всплывает новый. Например, если ослабить расовый перекос у модели, подбирающей изображения медицинского персонала, можно случайно усилить гендерный. Модель перестаёт использовать один shortcut, но начинает сильнее опираться на другой.
Что делает WRING WRING, или
Weighted Rotational DebiasING, предлагает не вырезать кусок из пространства признаков, а аккуратно повернуть нужные координаты внутри релевантного подпространства. Идея в том, чтобы модель перестала различать группы там, где это создаёт нежелательный перекос, но при этом не потеряла остальные полезные связи. Если обычная проекция меняет геометрию вокруг целевого признака довольно грубо, то WRING старается сохранить её максимально нетронутой.
«Когда ты просто вырезаешь смещение, невольно сжимаешь всё пространство вокруг», — так авторы описывают слабое место старых подходов.
На практике это значит, что метод можно применять к уже обученной vision-language модели вроде CLIP или OpenCLIP без повторного обучения с нуля. Для индустрии это важный момент: большие мультимодальные модели стоят дорого, и мало кто готов заново прогонять весь training pipeline ради одного корректирующего шага. WRING работает как post-processing-подход, то есть накладывается поверх готовой модели и может использоваться «на лету» в сценариях поиска, ранжирования или классификации изображений.
Что показали тесты
Работу приняли на ICLR 2026, а в экспериментах авторы сравнили WRING с привычными projection-подходами на четырёх наборах данных. В двух случаях речь шла о расовых и гендерных перекосах, ещё в одном — о фотографиях собак, где модель путала сам объект с фоном, и ещё в одном — об одежде, где смешивались цвет, сезонность и гендерные ассоциации. Итоговый вывод: WRING заметно снижал bias по целевому признаку и при этом не разгонял скрытые перекосы в других направлениях.
- Для изображений собак метод убирал привязку к фону, не усиливая bias по породе.
- Для кадров с людьми он снижал целевой перекос без побочного роста других чувствительных ассоциаций.
- Для одежды сохранял больше структуры исходной модели, чем проекционное удаление признаков.
- Метод не требует дообучения и потому проще для внедрения в уже работающие пайплайны. У подхода есть и ограничение: сейчас он лучше всего подходит для CLIP-подобных contrastive-моделей, где изображения и текст живут в общем пространстве эмбеддингов. Следующий логичный шаг, который сами авторы называют приоритетным, — перенос идеи на генеративные языковые модели в стиле ChatGPT. Если это сработает, WRING может стать не нишевым инструментом для computer vision, а более общим способом безопаснее чинить bias в уже обученных AI-системах.
Что это значит WRING интересен не тем, что обещает «полностью решить
bias», а тем, что предлагает более аккуратный инженерный компромисс. Для команд, которые уже используют CLIP-подобные модели в медицине, поиске или модерации, это практичный путь уменьшать перекосы без дорогого переобучения и без риска случайно испортить соседние свойства модели.