Тесты MLPerf Inference v5.1 показывают до 15.4% прироста производительности LLM на системе NVIDIA HGX B200 от Lambda, что подтверждает готовность инфраструктуры для корпоративного внедрения.
Nvidia анонсировала Rubin CPX — первый специализированный GPU для обработки миллионов токенов контекста в ИИ-моделях с производительностью 30 петафлопс.
AWS анонсировала второе поколение AI-чипов Trainium2 и Inferentia2 с многократным ростом производительности для обучения и инференса моделей машинного обучения.
NVIDIA на IAA Mobility представила облачно-автомобильную платформу ИИ для автономного вождения с акцентом на безопасность и партнерства с ведущими автопроизводителями.
Together AI запустила Instant Clusters — самообслуживаемые GPU-кластеры с поддержкой NVIDIA Hopper и Blackwell для быстрого развертывания ML-инфраструктуры.
NVIDIA представила эталонный дизайн для создания AI Factories — специализированных вычислительных центров для промышленного масштабирования искусственного интеллекта.