Команда ggml и создатель llama.cpp присоединились к Hugging Face, закрепив статус проекта как ключевого стандарта локального запуска моделей. Сделка ускорит интеграцию и выпуск квантованных версий, но усиливает зависимость экосистемы от единого стека.
LiteCoder-Terminal-Preview — семейство компактных моделей для работы в терминале, обучаемых менее чем на 1000 примеров. Они показывают конкурентные результаты, бросая вызов парадигме больших данных в машинном обучении.
Cua-bench — новый фреймворк для генерации разнообразных данных интерфейса и траекторий обучения, решающий проблему хрупкости ИИ-агентов для управления компьютером.
Модель Qwen-Image-i2L генерирует веса адаптера LoRA из изображения за один проход, заменяя часы обучения. Пока она лучше извлекает стиль, чем конкретное содержание, открывая путь к мгновенной персонализации диффузионных моделей.
Консорциум европейских университетов и компаний выпустил полностью открытую языковую модель EuroLLM-22B, обученную на суперкомпьютере и поддерживающую все языки ЕС.
Llama.cpp представил встроенный менеджер моделей, который автоматизирует загрузку и управление ИИ-моделями из реестра GGML, упрощая локальную разработку и тестирование.