Cerebras

Новости

Cognition переходит на Cerebras

Разработчик ИИ-агента Devin переходит на аппаратную платформу Cerebras

Стартап Cognition, создатель ИИ-агента Devin, переходит на системы Cerebras CS-2 для обучения своих моделей, отмечая многократный прирост скорости и упрощение архитектуры по сравнению с кластерами на GPU.

Jais 2 от G42, MBZUAI и Cerebras Systems

Модель Jais 2 открывает эру арабских языковых моделей и обещает рекорды по скорости работы

Jais 2 — семейство арабских языковых моделей от G42 и Cerebras, работающих со скоростью 2000 токенов/с и устанавливающих новые стандарты культурного соответствия.

Cerebras выпустила GLM-4.6

Cerebras выпустила GLM-4.6 — новый ИИ-генератор кода с производительностью 1000 токенов в секунду

Cerebras представила GLM-4.6 — самую быструю модель для генерации кода со скоростью 1000 токенов/с. Доступна от $10 с интеграцией в популярные IDE.

Cerebras лучше NVIDIA Blackwell

У Cerebras пятикратное превосходство над NVIDIA Blackwell в тестах GPT-OSS 120B

Сравнительные тесты показывают пятикратное преимущество архитектуры Cerebras над новейшими GPU NVIDIA Blackwell в инференсе модели GPT-OSS 120B.

Cerebras представила REAP

Cerebras представила технологию REAP для ускорения обучения языковых моделей

Cerebras представила технологию REAP, обещающую десятикратное ускорение обучения больших языковых моделей благодаря инновационной архитектуре и специализированным чипам.

Математика MoE-моделей

Математика MoE-моделей раскрыта: что на самом деле означает 8x7B

Подробный разбор математики MoE-моделей: от расчета памяти до вычислительной сложности. Почему 8x7B на самом деле означает 13B активных параметров.