Оглавление

По данным NVIDIA, новые открытые модели вроде OpenAI gpt-oss и Alibaba Qwen 3 теперь могут работать напрямую на ерсональных компьютерах, обеспечивая качественные результаты без необходимости подписок и с сохранением приватности данных.

Оптимизированные инструменты для локальных LLM

NVIDIA активно работает над оптимизацией популярных приложений для работы с языковыми моделями на ПК с RTX, максимально используя производительность тензорных ядер в графических процессорах RTX.

Один из самых простых способов начать работу с ИИ на ПК — Ollama, инструмент с открытым исходным кодом, предоставляющий простой интерфейс для запуска и взаимодействия с LLM. Он поддерживает возможность перетаскивания PDF-файлов в промпты, чатовые беседы и мультимодальные workflow, включающие текст и изображения.

Интерфейс Ollama с генерацией ответов AI на русском языке

Источник: blogs.nvidia.com

NVIDIA сотрудничала с Ollama для улучшения производительности и пользовательского опыта. Последние разработки включают:

  • Улучшения производительности на GeForce RTX GPU для модели OpenAI gpt-oss-20B и моделей Google Gemma 3
  • Поддержку новых моделей Gemma 3 270M и EmbeddingGemma3 для гиперэффективной генерации дополнительной информации на RTX AI PC
  • Улучшенную систему планирования моделей для максимального и точного отчета об использовании памяти
  • Повышение стабильности и улучшения для multi-GPU

Энтузиасты также могут начать работу с локальными LLM используя LM Studio, приложение на основе популярного фреймворка llama.cpp. Приложение предоставляет удобный интерфейс для локального запуска моделей, позволяя пользователям загружать различные LLM, общаться с ними в реальном времени и даже использовать их как локальные API эндпоинты для интеграции в кастомные проекты.

Интерфейс приложения LM Studio с функциями для создания заметок

Источник: blogs.nvidia.com

NVIDIA работала с llama.cpp для оптимизации производительности на NVIDIA RTX GPU. Последние обновления включают:

  • Поддержку новой модели NVIDIA Nemotron Nano v2 9B, основанной на новой гибридной архитектуре
  • Flash Attention теперь включен по умолчанию, предлагая до 20% улучшение производительности по сравнению с отключенным Flash Attention
  • Оптимизации CUDA kernels для RMS Norm и fast-div по модулю, дающие до 9% улучшения производительности для популярных моделей
  • Семантическое версионирование, упрощающее разработчикам адаптацию будущих релизов

Создание AI-помощника для учебы с AnythingLLM

Локальный запуск LLM не только обеспечивает большую приватность и производительность, но и снимает ограничения на количество загружаемых файлов и время их доступности, позволяя вести контекстно-зависимые беседы с ИИ в течение более длительного периода времени.

Интерфейс приложения AnythingLLM с материалами для изучения и карточками для запоминания

Источник: blogs.nvidia.com

Простой способ сделать это — использовать AnythingLLM, который поддерживает загрузку документов, кастомные базы знаний и чатовые интерфейсы. Загружая учебные планы, задания и учебники в AnythingLLM на RTX PC, студенты могут получить адаптивного интерактивного помощника для учебы.

Они могут попросить агента помочь с такими задачами:

  • Генерация карточек из лекционных слайдов
  • Контекстные вопросы по учебным материалам
  • Создание и проверка тестов для подготовки к экзаменам
  • Пошаговое решение сложных задач

Локальные LLM наконец-то перестали быть игрушкой для гиков и стали практичным инструментом. Особенно впечатляет, как NVIDIA смогла выжать максимум из потребительского железа — теперь даже на ноутбуке можно иметь персонального AI-ассистента, который не шпионит и не требует подписки. Правда, пока это всё равно требует технической смекалки, но тенденция очевидна: ИИ становится персональным.

Project G-Assist теперь управляет настройками ноутбуков

Project G-Assist — экспериментальный AI-ассистент, который помогает пользователям настраивать, контролировать и оптимизировать свои игровые ПК с помощью простых голосовых или текстовых команд без необходимости копаться в меню.

Новое обновление G-Assist добавляет команды для настройки настроек ноутбуков, включая:

  • Профили приложений, оптимизированные для ноутбуков
  • Контроль BatteryBoost
  • Управление WhisperMode

Project G-Assist также расширяем. С помощью G-Assist Plug-In Builder пользователи могут создавать и кастомизировать функциональность G-Assist, добавляя новые команды или подключая внешние инструменты с помощью простых в создании плагинов.