Оглавление
Компания Lambda анонсировала серию обновлений своей платформы для ИИ-разработчиков и исследователей за апрель-июнь 2025 года, сообщает Lambda AI Blog. Нововведения охватывают управление кластерами, инструменты развертывания моделей и оптимизацию рабочих процессов.
Апрель: рекорды производительности
Кластеры Lambda на базе систем NVIDIA HGX B200 и H200 показали прирост производительности до 21% в тестах MLPerf Inference v5.0 для моделей GPT-J, Llama 2 70B и Mixtral 8x7B. Параллельно запущена модель DeepSeek V3-0324 (685 млрд параметров) с топовыми результатами в MATH-500 (94%) и MMLU Pro (81,2%).
Май: оптимизация инфраструктуры
- Managed Slurm: автоматизированное управление кластерами с поддержкой LDAP и контейнерами
- Портал безопасности: централизованный доступ к SOC 2 Type II отчетам и политикам
- Адаптер S3 API для Filesystem: прямой доступ к хранилищу без виртуальных машин
- Дашборд мониторинга GPU: отслеживание использования видеопамяти в реальном времени
- Интеграция MLflow для управления ML-жизненным циклом
- Доступность модели Qwen3-32B от Alibaba в Inference API
Июнь: обновление open-source
Модель DeepSeek-R1-0528 с FP8-квантованием достигла 87,5% точности в тесте AIME 2025, превзойдя предыдущие версии.
Lambda последовательно закрывает боль разработчиков: от рутинного администрирования кластеров до тонкой настройки инференса. Их Managed Slurm — серьезный шаг против DIY-кошмаров, а интеграция MLflow снижает порог входа для ML-инженеров. Однако ключевой вызов — конкуренция с «облачными гигантами», где Lambda делает ставку на специализированную оптимизацию под ИИ-нагрузки. Реальный тест — смогут ли они удержать ценовое преимущество при масштабировании.
Анонсы позиционируются как часть стратегии по созданию «гигаваттных ИИ-фабрик» для обучения и инференса.
Оставить комментарий