Оглавление

Платформа Together AI представила масштабное обновление своего сервиса для тонкой настройки языковых моделей, значительно расширив поддержку крупнейших open-source LLM и увеличив максимальную длину контекста, сообщает сама компания.

Поддержка моделей с более чем 100 миллиардами параметров

В 2025 году рынок увидел взрывной рост больших языковых моделей с параметрами свыше 100 миллиардов. Такие модели как DeepSeek-R1, Qwen3-235B и Llama 4 Maverick демонстрируют качественный скачок в возможностях, иногда приближаясь к уровню проприетарных решений. Однако их обучение традиционно было сложной задачей даже для опытных команд.

Теперь платформа Together AI позволяет проводить тонкую настройку этих гигантов с помощью последних оптимизаций процесса обучения. В список добавленных моделей вошли:

Для большинства моделей поддерживается длина контекста 16,384 токена для SFT и 8,192 токена для DPO обучения.

Удвоение длины контекста без дополнительной платы

Одним из ключевых улучшений стало увеличение максимальной длины контекста для тонкой настройки — в среднем в 2-4 раза без изменения стоимости. Некоторые модели, такие как Llama 3.1-8B или Gemma 3-4B, теперь поддерживают до 131 тысячи токенов контекста.

Длинный контекст перестал быть экзотикой и стал необходимостью для серьезных применений — от анализа документации до многошаговых агентов. То, что Together AI предлагает это без надбавки к цене, серьезно меняет экономику настройки моделей под конкретные задачи, особенно для стартапов и исследовательских групп с ограниченным бюджетом.

Компания Slingshot AI, разрабатывающая терапевтическое приложение Ash, уже использовала эту возможность для создания специализированной модели психологии, обученной на длинных клинических диалогах.

Прямая интеграция с Hugging Face Hub

Платформа теперь позволяет напрямую работать с моделями из Hugging Face Hub — как загружать их для дообучения, так и сохранять результаты обратно в репозитории. Это устраняет необходимость в промежуточных шагах загрузки и конвертации моделей.

Для использования достаточно указать API-ключ Hugging Face с соответствующими правами доступа. Пилотные клиенты, включая Slingshot и Parsed, уже интегрировали эту функцию в свои рабочие пайплайны.

Это обновление делает настройку больших моделей значительно более доступной, хотя работа с гигаваттными моделями все еще требует серьезных вычислительных ресурсов и экспертизы.