Cerebras представила Implicit Chain Transformer — архитектуру, решающую проблему отсутствия памяти у языковых моделей. Новая модель передает «вектор намерения» между токенами, что позволяет эффективно поддерживать состояние в задачах вроде сложения по модулю и обхода графа.
Стартап Cognition, создатель ИИ-агента Devin, переходит на системы Cerebras CS-2 для обучения своих моделей, отмечая многократный прирост скорости и упрощение архитектуры по сравнению с кластерами на GPU.
Jais 2 — семейство арабских языковых моделей от G42 и Cerebras, работающих со скоростью 2000 токенов/с и устанавливающих новые стандарты культурного соответствия.
Cerebras представила GLM-4.6 — самую быструю модель для генерации кода со скоростью 1000 токенов/с. Доступна от $10 с интеграцией в популярные IDE.
Сравнительные тесты показывают пятикратное преимущество архитектуры Cerebras над новейшими GPU NVIDIA Blackwell в инференсе модели GPT-OSS 120B.
Cerebras представила технологию REAP, обещающую десятикратное ускорение обучения больших языковых моделей благодаря инновационной архитектуре и специализированным чипам.