Google упрощает работу с TPU в Ray на платформе GKE
Google Cloud представил улучшения для работы Ray с TPU на GKE, включая автоматизацию настройки аппаратной топологии и расширенную поддержку JAX.
Новости о технике и железе для искусственного интеллекта. GPU, TPU, специализированные AI-чипы от NVIDIA, AMD, Intel. Облачные платформы для ML, обзоры программного обеспечения, фреймворков и инструментов разработки. Аппаратное обеспечение для обучения и инференса нейросетей. Сравнения производительности и рекомендации по выбору.
Google Cloud представил улучшения для работы Ray с TPU на GKE, включая автоматизацию настройки аппаратной топологии и расширенную поддержку JAX.
Nokia и Rohde & Schwarz разработали AI-приемник для 6G, который улучшает покрытие uplink на 10-25% с помощью машинного обучения, снижая затраты на развертывание сетей.
Lambda заключила многомиллиардную сделку с Microsoft на поставку десятков тысяч GPU Nvidia для ИИ-инфраструктуры, усиливая конкуренцию на рынке облачных вычислений.
Генеральные директора OpenAI и Microsoft признают, что не могут предсказать, сколько энергии понадобится для развития ИИ, что создает проблемы с инфраструктурой.
Google Cloud Managed Lustre позволяет снизить стоимость AI-инференса на 35% через вынос KV Cache во внешнее хранилище, сократив потребность в GPU на 43%.
80% потребителей опасаются роста счетов за электричество из-за увеличения спроса со стороны дата-центров ИИ. Энергопотребление центров обработки данных может вырасти до 12% к 2028 году.