Оглавление
Локальные языковые модели окончательно вышли из стадии экспериментов и превратились в полноценные рабочие инструменты. Технический барьер для их использования продолжает снижаться, и новая интеграция между Docker Model Runner и Open WebUI демонстрирует этот тренд в действии.
Мощный дуэт для локального ИИ
Docker Model Runner изначально задумывался как минималистичный сервис вывода моделей — просто поле для запроса и ответа. Никакой памяти, загрузки файлов или сложного интерфейса. Это был сознательный дизайнерский выбор: не дублировать функциональность, которая уже хорошо реализована в других инструментах экосистемы.
Именно здесь на сцену выходит Open WebUI — современный самохостируемый интерфейс, созданный специально для работы с локальными LLM. Он предоставляет историю чатов, загрузку файлов, редактирование промптов и многое другое. Всё локально. Всё приватно.

От нуля до AI-ассистента за несколько кликов
Если у вас уже установлен Docker Desktop, процесс занимает буквально минуты. В разделе Models достаточно выбрать любую модель из секции Docker Hub: GPT-OSS, Gemma, LLaMA 3, Mistral или другие. Один клик — и Docker Model Runner скачает контейнер и запустит модель локально.
Любителям командной строки достаточно выполнить docker model pull
.
Далее открываем Extensions Marketplace в Docker Desktop и устанавливаем расширение Open WebUI — богатый функционалом интерфейс для локальных LLM.
Оно автоматически разворачивает контейнер и подключается к вашему локальному Docker Model Runner. Все загруженные модели появятся в WebUI готовыми к использованию — никакой ручной конфигурации, переменных окружения или маппинга портов.
После завершения настройки вы увидите экран подтверждения работы расширения с кнопкой для запуска интерфейса в браузере. Альтернативно можно открыть его вручную по адресу http://localhost:8090 (порт по умолчанию).
Важно: Первый запуск может занять пару минут, пока Open WebUI устанавливает необходимые компоненты и настраивает интеграцию. Последующие запуски происходят гораздо быстрее — практически мгновенно.
Возможности Open WebUI
После установки Open WebUI ощущается как знакомый ChatGPT, но работающий полностью на вашем компьютере. Вы получаете полноценный чат-опыт с постоянными беседами, редактированием системных промптов и возможностью переключаться между моделями на лету.
Загрузка файлов и работа с ними
Можно загружать PDF, Markdown-файлы, презентации, электронные таблицы и даже изображения. Open WebUI извлекает содержимое и делает его доступным для запросов через чат.

Голосовой ввод
С включенной функцией голосового ввода можно разговаривать с ассистентом прямо из браузера. Отлично подходит для задач без использования рук, быстрых промптов или демонстрации локальной AI-системы.
Контроль поведения модели
Open WebUI поддерживает полный контроль над системными промптами с шаблонами, переменными и пресетами чатов. Независимо от того, пишете ли вы код, составляете посты или отвечаете на письма, можно тонко настраивать, как модель думает и отвечает.
Мгновенное переключение между моделями
Уже загрузили несколько моделей через Docker Model Runner? Open WebUI обнаруживает их автоматически. Выбирайте любую модель из выпадающего списка и начинайте общение — перезапуск не требуется.
Сохранение информации в память
Хотите, чтобы модель запомнила что-то конкретное? Можно вручную сохранять факты или напоминания в панели личной памяти и редактировать или удалять их в любое время.
Дополнительные возможности
Open WebUI выходит за рамки простого чата с продвинутыми инструментами для реальных рабочих процессов:
- Вызов функций и плагины — использование готовых инструментов или определение собственных Python-функций через фреймворк Pipelines, идеально для автоматизации, переводов или поиска данных
- Многоязычный интерфейс — поддержка широкого диапазона языков интерфейса с полной локализацией, отлично для международных команд или неанглоязычных пользователей
- Безопасность и локальная работа по дизайну — без регистрации и облачного хранилища. Всё остаётся на вашем компьютере под вашим контролем
Примечание: Не все функции доступны универсально. Некоторые зависят от возможностей модели (например, вызов функций, понимание изображений), текущих настроек Open WebUI (например, голосовой ввод, плагины) или используемого оборудования (например, GPU-ускорение, производительность локального RAG).
Как это работает внутри
Под капотом расширение объединяет два ключевых компонента: интеграцию между Open WebUI и Docker Model Runner и динамический контейнерный провайдер, встроенный в расширение Docker.
Open WebUI поддерживает Python-базированные «функции» — лёгкие плагины, расширяющие поведение модели. Это расширение включает функцию, которая подключается к Docker Model Runner через его локальный API, позволяя интерфейсу автоматически перечислять и получать доступ ко всем загруженным моделям.
При установке расширения Docker запускает контейнер Open WebUI по требованию. Это не статичная настройка — контейнер конфигурируется динамически на основе вашего окружения. Можно:
- Переключиться на другой образ Open WebUI (например, с поддержкой CUDA или конкретной версии)
- Изменить порт по умолчанию
- Поддержка пользовательских окружений и расширенных флагов — скоро
Расширение обрабатывает всё это за кулисами, но даёт полный контроль при необходимости.
Интеграция Docker Model Runner с Open WebUI — это очередной шаг к демократизации локального ИИ. То, что раньше требовало ручной настройки портов, кастомных конфигов и сторонних скриптов, теперь работает из коробки. Интересно наблюдать, как инструменты становятся всё более дружелюбными к не-техническим пользователям, при этом сохраняя гибкость для разработчиков. Правда, стоит помнить, что удобство установки не отменяет необходимости в вычислительных ресурсах — мощные модели всё равно требуют соответствующего железа.
Расширение Docker Open WebUI превращает Docker Model Runner из простого запуска моделей в полнофункционального локального AI-ассистента с памятью, загрузкой файлов, поддержкой нескольких моделей и многим другим. То, что раньше требовало кастомных конфигов, ручной настройки портов или сторонних скриптов, теперь работает из коробки всего за несколько кликов.
Сообщает Docker.
Оставить комментарий