Оглавление
Как пишет VentureBeat, стартап Liquid AI представил LFM2-VL — новое поколение мультимодальных моделей, оптимизированных для работы на смартфонах, ноутбуках и носимых устройствах. Архитектура обеспечивает двукратный прирост скорости инференса на GPU при сохранении точности.
Две версии для разных задач
Доступны две конфигурации:
- LFM2-VL-450M (менее 0.5B параметров) — для устройств с минимальными ресурсами
- LFM2-VL-1.6B — баланс производительности и компактности для одиночных GPU
Обработка изображений до 512×512 пикселей без искажений. Для больших размеров — патчинг и добавление thumbnail для контекста.
Технологическая основа
Модель основана на архитектуре LFM2 с динамической генерацией весов (LIV-система). В отличие от трансформеров, подход Liquid AI сочетает:
- Языковое ядро
- Визуальный энкодер SigLIP2 NaFlex
- Мультимодальный проектор с оптимизацией токенов
Обучение проведено на 100B токенах из открытых и синтетических данных.
Экосистема для разработчиков
В июле 2025 компания запустила Liquid Edge AI Platform (LEAP) — кроссплатформенный SDK для развертывания моделей на мобильных устройствах. Ключевые особенности:
- Поддержка iOS/Android
- Интеграция с открытыми SLM
- Модели от 300MB
- Офлайн-тестирование через приложение Apollo

Производительность и доступность
LFM2-VL-1.6B демонстрирует конкурентоспособные результаты:
- RealWorldQA: 65.23
- InfoVQA: 58.68
- OCRBench: 742

Модели доступны на Hugging Face с примером тонкой настройки в Colab. Лицензия LFM1.0 (на базе Apache 2.0) предусматривает разные условия для компаний с выручкой выше/ниже $10 млн.
Это технологически значимый шаг: Liquid AI доказала, что мультимодальные модели могут быть компактными без потери качества. Особенно ценно решение для рынков вроде российского, где спрос на офлайн-AI в гаджетах растёт, но импортные чипы недоступны. Однако лицензионная неопределённость — красный флаг. Пока условия LFM1.0 не опубликованы, разработчикам стоит тестировать модель осторожно. Если Liquid AI обеспечит прозрачность, это может стать стандартом для мобильной компьютерной зрения к 2026 году.
Оставить комментарий