Оглавление

Локальные языковые модели окончательно вышли из стадии экспериментов и превратились в полноценные рабочие инструменты. Технический барьер для их использования продолжает снижаться, и новая интеграция между Docker Model Runner и Open WebUI демонстрирует этот тренд в действии.

Мощный дуэт для локального ИИ

Docker Model Runner изначально задумывался как минималистичный сервис вывода моделей — просто поле для запроса и ответа. Никакой памяти, загрузки файлов или сложного интерфейса. Это был сознательный дизайнерский выбор: не дублировать функциональность, которая уже хорошо реализована в других инструментах экосистемы.

Именно здесь на сцену выходит Open WebUI — современный самохостируемый интерфейс, созданный специально для работы с локальными LLM. Он предоставляет историю чатов, загрузку файлов, редактирование промптов и многое другое. Всё локально. Всё приватно.

Интерфейс Docker Model Runner с выбором моделей

От нуля до AI-ассистента за несколько кликов

Если у вас уже установлен Docker Desktop, процесс занимает буквально минуты. В разделе Models достаточно выбрать любую модель из секции Docker Hub: GPT-OSS, Gemma, LLaMA 3, Mistral или другие. Один клик — и Docker Model Runner скачает контейнер и запустит модель локально.

Любителям командной строки достаточно выполнить docker model pull.

Далее открываем Extensions Marketplace в Docker Desktop и устанавливаем расширение Open WebUI — богатый функционалом интерфейс для локальных LLM.

Оно автоматически разворачивает контейнер и подключается к вашему локальному Docker Model Runner. Все загруженные модели появятся в WebUI готовыми к использованию — никакой ручной конфигурации, переменных окружения или маппинга портов.

После завершения настройки вы увидите экран подтверждения работы расширения с кнопкой для запуска интерфейса в браузере. Альтернативно можно открыть его вручную по адресу http://localhost:8090 (порт по умолчанию).

Важно: Первый запуск может занять пару минут, пока Open WebUI устанавливает необходимые компоненты и настраивает интеграцию. Последующие запуски происходят гораздо быстрее — практически мгновенно.

Возможности Open WebUI

После установки Open WebUI ощущается как знакомый ChatGPT, но работающий полностью на вашем компьютере. Вы получаете полноценный чат-опыт с постоянными беседами, редактированием системных промптов и возможностью переключаться между моделями на лету.

Загрузка файлов и работа с ними

Можно загружать PDF, Markdown-файлы, презентации, электронные таблицы и даже изображения. Open WebUI извлекает содержимое и делает его доступным для запросов через чат.

Интерфейс загрузки файлов в Open WebUI для общения с документами

Голосовой ввод

С включенной функцией голосового ввода можно разговаривать с ассистентом прямо из браузера. Отлично подходит для задач без использования рук, быстрых промптов или демонстрации локальной AI-системы.

Контроль поведения модели

Open WebUI поддерживает полный контроль над системными промптами с шаблонами, переменными и пресетами чатов. Независимо от того, пишете ли вы код, составляете посты или отвечаете на письма, можно тонко настраивать, как модель думает и отвечает.

Мгновенное переключение между моделями

Уже загрузили несколько моделей через Docker Model Runner? Open WebUI обнаруживает их автоматически. Выбирайте любую модель из выпадающего списка и начинайте общение — перезапуск не требуется.

Сохранение информации в память

Хотите, чтобы модель запомнила что-то конкретное? Можно вручную сохранять факты или напоминания в панели личной памяти и редактировать или удалять их в любое время.

Дополнительные возможности

Open WebUI выходит за рамки простого чата с продвинутыми инструментами для реальных рабочих процессов:

  • Вызов функций и плагины — использование готовых инструментов или определение собственных Python-функций через фреймворк Pipelines, идеально для автоматизации, переводов или поиска данных
  • Многоязычный интерфейс — поддержка широкого диапазона языков интерфейса с полной локализацией, отлично для международных команд или неанглоязычных пользователей
  • Безопасность и локальная работа по дизайну — без регистрации и облачного хранилища. Всё остаётся на вашем компьютере под вашим контролем

Примечание: Не все функции доступны универсально. Некоторые зависят от возможностей модели (например, вызов функций, понимание изображений), текущих настроек Open WebUI (например, голосовой ввод, плагины) или используемого оборудования (например, GPU-ускорение, производительность локального RAG).

Как это работает внутри

Под капотом расширение объединяет два ключевых компонента: интеграцию между Open WebUI и Docker Model Runner и динамический контейнерный провайдер, встроенный в расширение Docker.

Open WebUI поддерживает Python-базированные «функции» — лёгкие плагины, расширяющие поведение модели. Это расширение включает функцию, которая подключается к Docker Model Runner через его локальный API, позволяя интерфейсу автоматически перечислять и получать доступ ко всем загруженным моделям.

При установке расширения Docker запускает контейнер Open WebUI по требованию. Это не статичная настройка — контейнер конфигурируется динамически на основе вашего окружения. Можно:

  • Переключиться на другой образ Open WebUI (например, с поддержкой CUDA или конкретной версии)
  • Изменить порт по умолчанию
  • Поддержка пользовательских окружений и расширенных флагов — скоро

Расширение обрабатывает всё это за кулисами, но даёт полный контроль при необходимости.

Интеграция Docker Model Runner с Open WebUI — это очередной шаг к демократизации локального ИИ. То, что раньше требовало ручной настройки портов, кастомных конфигов и сторонних скриптов, теперь работает из коробки. Интересно наблюдать, как инструменты становятся всё более дружелюбными к не-техническим пользователям, при этом сохраняя гибкость для разработчиков. Правда, стоит помнить, что удобство установки не отменяет необходимости в вычислительных ресурсах — мощные модели всё равно требуют соответствующего железа.

Расширение Docker Open WebUI превращает Docker Model Runner из простого запуска моделей в полнофункционального локального AI-ассистента с памятью, загрузкой файлов, поддержкой нескольких моделей и многим другим. То, что раньше требовало кастомных конфигов, ручной настройки портов или сторонних скриптов, теперь работает из коробки всего за несколько кликов.

Сообщает Docker.