KDnuggets a montré comment exécuter Qwen3.5 sur un ancien ordinateur portable avec Ollama et OpenCode
KDnuggets a détaillé une méthode simple pour transformer un ancien ordinateur portable en machine AI locale pour le développement. L'association d'Ollama, Qwen3

8 апреля KDnuggets опубликовал практический разбор, как превратить старый ноутбук в локальное AI-рабочее место без дорогого железа и подписок на облачные сервисы. В центре сетапа — Qwen3.5 в версии 4B, Ollama для локального запуска моделей и OpenCode как агент для работы с кодом прямо из терминала.
Зачем это вообще нужно
Главная мысль статьи в том, что локальные AI-инструменты больше не требуют мощной рабочей станции или отдельного сервера. Автор показывает, что даже возрастной ноутбук можно использовать как приватную среду для экспериментов, кодинга и быстрых проверок, если взять компактную открытую модель и не усложнять стек лишними слоями. В этом сценарии Qwen3.
5 4B подается как разумный компромисс между качеством ответа, скоростью работы и требованиями к железу. При этом речь не идет о замене облачных флагманских моделей. Такой сетап нужен для другой задачи: дать разработчику, студенту или энтузиасту недорогой способ запускать AI локально, не отправлять файлы и промпты во внешние сервисы и быстро проверять идеи на своей машине.
Для чернового кода, учебных задач, простых терминальных сценариев и небольших тестов этого уже достаточно, даже если качество ответов не всегда дотягивает до уровня лучших коммерческих систем.
Как устроен сетап Базовый стек состоит из двух частей.
Ollama отвечает за скачивание, хранение и запуск языковой модели на локальном устройстве, а OpenCode подключается сверху и превращает ее в более практичный агентный интерфейс для работы с кодом. В статье используется вариант Qwen3.5:4B, которому, по оценке автора, обычно хватает примерно 3,5 ГБ оперативной памяти.
Именно поэтому эта версия выглядит реалистичным выбором для старого ноутбука, где нет запаса по видеокарте и памяти. установить Ollama под Windows, Linux или macOS при необходимости вручную запустить локальный сервер Ollama скачать и открыть модель Qwen3.5 4B через терминал установить OpenCode быстрым скриптом * запустить OpenCode с уже подключенной локальной моделью После этого пользователь получает локальный интерфейс, где модель уже можно просить создать проект, поставить зависимости или проверить код.
Отдельный плюс гайда в том, что он сохраняет низкий порог входа: без Docker-оркестрации, ручной настройки API и длинной сборки окружения. На фоне многих материалов про локальный AI это выглядит как действительно практический сценарий, который можно повторить за вечер, а не отдельный инженерный проект на несколько дней.
Проверка на реальной задаче
Чтобы показать не только установку, но и реальную пользу такого подхода, автор поручил связке Qwen3.5 и OpenCode создать с нуля небольшой Python-проект — игру Guess the Word для терминала. Агент должен был сам сгенерировать структуру проекта, написать код, установить зависимости и довести приложение до рабочего состояния.
По итогам теста система действительно собрала рабочую игру с понятной логикой, отслеживанием очков и корректной обработкой вводимых символов, то есть речь шла не о декоративной демо-сцене, а о полноценном локальном выполнении цепочки задач. Одновременно статья честно фиксирует и ограничения. Компактная квантованная модель хорошо справляется с базовым кодом, простыми скриптами, учебными проектами и исследовательскими запросами, но начинает сдавать, когда задача становится длиннее и требует устойчивого многошагового планирования.
Автор отдельно пишет, что модель иногда останавливалась на середине процесса, и тогда приходилось вручную подталкивать ее следующей командой. Для экспериментов это терпимо, но для стабильного повседневного пайплайна уже выглядит заметным ограничением.
«Иногда приходилось просто вводить continue, чтобы она закончила задачу».
Что это значит
Гайд KDnuggets показывает важный сдвиг: локальные агентные AI-связки становятся дешевле, проще и полезнее в повседневной разработке. Они пока не заменяют сильные облачные модели, но уже дают рабочий вариант для приватных экспериментов, обучения, прототипов и небольших инженерных задач.