Железо

Новости о технике и железе для искусственного интеллекта. GPU, TPU, специализированные AI-чипы от NVIDIA, AMD, Intel. Облачные платформы для ML, обзоры программного обеспечения, фреймворков и инструментов разработки. Аппаратное обеспечение для обучения и инференса нейросетей. Сравнения производительности и рекомендации по выбору.

NVIDIA установила рекорд Graph500

NVIDIA установила рекорд Graph500, удвоив производительность на кластере из 8192 GPU

Кластер из 8192 GPU NVIDIA H100 установил рекорд Graph500, обработав 35 трлн ребер графа. Прорыв обеспечила технология активных сообщений между GPU, исключившая CPU из цепочки.

Cognition переходит на Cerebras

Разработчик ИИ-агента Devin переходит на аппаратную платформу Cerebras

Стартап Cognition, создатель ИИ-агента Devin, переходит на системы Cerebras CS-2 для обучения своих моделей, отмечая многократный прирост скорости и упрощение архитектуры по сравнению с кластерами на GPU.

ИИ спроектировал ПК из 843 частей

ИИ спроектировал компьютер из 843 компонентов, который запустился с первой попытки

Стартап Quilter с помощью ИИ спроектировал компьютер из 843 компонентов за неделю вместо трех месяцев. Система успешно запустила Linux с первой попытки, что открывает путь к автоматизации рутинной инженерной работы.

Дата-центрам для ИИ не хватит энергии

Дата-центрам для ИИ уже в 2028 году не будет хватать почти 20 гигаватт мощности энергии

Анализ показывает, что энергетический дефицит в США может ограничить рост компаний ИИ. К 2028 году потребуется 44 ГВт для дата-центров, но доступно будет лишь 25 ГВт.

Crucial прекращает выпуск памяти для ПК

Производитель памяти Crucial прекращает выпуск потребительской техники ради ИИ и дата-центров

Micron закрывает бренд Crucial после 30 лет на потребительском рынке, чтобы сосредоточиться на поставках памяти для ИИ-инфраструктуры и дата-центров с февраля 2026 года.

Обучение MoE-моделей на 1024 GPU

AMD и PyTorch организовали эффективное обучение MoE-моделей на 1024 AMD GPU с TorchTitan

AMD и Meta* достигли 96% эффективности масштабирования при обучении MoE-моделей на 1024 GPU с помощью TorchTitan и Primus-Turbo.