Nvidia demonstrated neural texture compression for games: VRAM usage decreased by nearly seven times
Nvidia demonstrated one of the most practical AI technologies for games at GTC 2026 — Neural Texture Compression. In the demo, VRAM usage dropped from 6.5 GB to

Nvidia показала на GTC 2026, что дефицит видеопамяти в играх можно лечить не только более дорогими GPU, но и другой логикой работы с самими текстурами. На конференции в Сан-Хосе, которая прошла 16–19 марта 2026 года, компания продемонстрировала Neural Texture Compression — систему, которая в тестовой сцене снизила расход VRAM с 6,5 ГБ до 970 МБ при сопоставимом визуальном качестве. Для индустрии, где объём текстур давно стал одним из главных ограничений, это выглядит не как лабораторный фокус, а как очень практичный шаг.
По сути, речь идёт о нейронном сжатии материалов. Вместо того чтобы хранить большие наборы текстур в привычных блочных форматах, Nvidia предлагает кодировать их в компактное представление, а затем восстанавливать прямо во время рендеринга с помощью маленькой нейросети. Такая сеть обучается под конкретный материал и запускается прямо в шейдерах, используя тензорные ядра RTX-видеокарт.
Важный момент в том, что технология не требует полного отказа от существующих графических пайплайнов: разработчики могут встраивать её как отдельный инструмент в уже знакомый процесс сборки и вывода сцены. Сама идея для Nvidia не новая. Компания публиковала исследование по этой теме ещё на SIGGRAPH 2023, а теперь показывает, как подход превращается из исследовательской работы в прикладной SDK для игровых движков и графических приложений.
В официальных материалах Nvidia говорит, что нейросжатие способно экономить до семи раз больше VRAM или системной памяти по сравнению с традиционными форматами при том же уровне качества. В ранних примерах компания также показывала, что такой подход позволяет держать более высокую эффективную детализацию: в одном из сравнений нейросжатые текстуры давали в четыре раза большее разрешение при меньшем объёме памяти, чем качественное блочное сжатие. В перспективе это может повлиять и на размеры самих игровых пакетов, поскольку выгода распространяется не только на память видеокарты, но и на хранение данных.
Почему это важно именно сейчас, понятно без особых объяснений. Современные игры всё чаще упираются не только в вычислительную мощность, но и в память: открытые миры, 4K- и 8K-текстуры, сложные материалы, трассировка пути и большое число уникальных ассетов быстро съедают VRAM даже на мощных видеокартах. Когда памяти не хватает, начинаются агрессивная подгрузка данных, микрофризы и неприятные компромиссы по качеству.
Если текстуры можно хранить в разы компактнее и при этом декодировать по требованию, разработчики получают больше свободы в наполнении сцены, а пользователи — шанс реже упираться в жёсткий лимит памяти. У технологии, конечно, есть и ограничения. Это не волшебный переключатель, который автоматически сделает любые старые игры экономнее.
Для работы нужны инструменты на стороне разработчика, обучение маленьких моделей под конкретные материалы и поддержка современного GPU-стека, включая ускорение таких вычислений через Tensor Cores и новые механизмы вроде Cooperative Vectors в DirectX. Иными словами, массовый эффект появится только тогда, когда поддержку NTC начнут закладывать в реальные игровые проекты, а не только в технодемо и SDK. Но главный вывод уже сейчас довольно понятен: Nvidia нащупала одно из немногих AI-применений в графике, где польза измеряется не маркетинговыми обещаниями, а очень конкретными мегабайтами.
Neural Texture Compression не пытается «дорисовать» сцену за художника, а решает узкую и дорогую проблему — как уместить больше визуальной сложности в тот же объём памяти. Если технология действительно дойдёт до массовых игр без заметной просадки качества и производительности, спор о том, сколько VRAM нужно для новых релизов, может стать заметно менее болезненным.