Оглавление

Стартап Cognition, известный своим ИИ-агентом для написания кода Devin, объявил о переходе на аппаратную платформу Cerebras для обучения и инференса своих моделей, пишет блог Cerebras. Решение отказаться от традиционных кластеров на базе GPU в пользу специализированных систем на чипах WSE-2 (Wafer Scale Engine) было продиктовано стремлением к максимальной эффективности и масштабируемости в условиях растущей сложности задач, которые решают автономные агенты.

От графических процессоров к пластинчатым чипам

Cognition изначально обучала свои модели на инфраструктуре с GPU, но столкнулась с классическими проблемами масштабирования: сложностью оркестрации тысяч отдельных чипов, узкими местами в межчиповой коммуникации и высокими накладными расходами на управление распределенными вычислениями. Переход на системы Cerebras CS-2, построенные вокруг единого гигантского чипа WSE-2 площадью 46 225 квадратных миллиметров, позволил радикально упростить архитектуру.

Ключевые преимущества, которые отмечает Cognition, включают:

  • Единая память: 40 ГБ встроенной сверхбыстрой SRAM на чипе устраняет необходимость в сложной иерархии кэшей и сводит к минимуму задержки при доступе к данным.
  • Упрощенная коммуникация: Высокоскоростная mesh-сеть на кристалле заменяет внешние интерконнекты типа NVLink или InfiniBand, что критично для крупных моделей.
  • Скорость обучения: По словам представителей стартапа, переход на CS-2 ускорил процесс обучения моделей в несколько раз по сравнению с их предыдущей GPU-инфраструктурой.

ИИ-агенты как новая парадигма разработки

Devin от Cognition позиционируется не просто как очередной код-ассистент по типу GitHub Copilot, а как полноценный автономный инженер по программному обеспечению. Агент способен самостоятельно выполнять комплексные задачи: от анализа требований и планирования до написания кода, тестирования и отладки. Такая функциональность требует от лежащей в основе модели не только глубокого понимания кода, но и способности к долгосрочному планированию и работе с инструментами.

Обучение и поддержка работы таких сложных агентов — вычислительно крайне затратная задача. Традиционные архитектуры, построенные на множестве GPU, становятся бутылочным горлышком, особенно когда речь идет о тонкой настройке (fine-tuning) под конкретные задачи или быстром развертывании новых версий моделей.

История с Cognition — отличный пример того, как амбиции в области ИИ упираются в суровую реальность аппаратного обеспечения. Все хотят создавать агентов уровня «джуниор-разработчика», но мало кто готов платить по счетам за эксафлопсные вычисления. Cerebras со своим подходом «все в одном чипе» предлагает элегантное, хотя и дорогое, решение проблемы коммуникационных накладных расходов. Стартап, создающий программных агентов для автоматизации разработки, сам вынужден радикально менять «железо», чтобы эти агенты вообще могли работать. Это напоминает старую истину: чтобы написать эффективный софт, иногда нужно сначала переизобрести хард.

Почему именно Cerebras?

Выбор в пользу Cerebras не случаен. Платформа CS-2 представляет собой альтернативу доминирующим на рынке ускорителям NVIDIA. Ее архитектура WSE, где сотни тысяч ядер и десятки гигабайт памяти объединены на одной кремниевой пластине, идеально подходит для задач с высокой степенью параллелизма и большими моделями, которые плохо укладываются в память отдельного GPU.

Для Cognition это означает возможность:

  • Обучать более крупные и сложные модели, не разбивая их на множество устройств.
  • Сократить время цикла разработки от идеи до рабочего прототипа агента.
  • Обеспечить более стабильную и предсказуемую производительность при инференсе, что критично для коммерческого продукта.

Партнерство также носит стратегический характер: успех такого заметного стартапа, как Cognition, на платформе Cerebras может послужить сильным маркетинговым сигналом для других компаний, работающих в области frontier AI.

Будущее за специализированным железом

Кейс Cognition иллюстрирует общий тренд в индустрии машинного обучения: переход от универсальных GPU к более специализированным аппаратным ускорителям, оптимизированным под конкретные типы моделей и рабочих нагрузок. Пока NVIDIA продолжает доминировать с архитектурой общего назначения, такие игроки, как Cerebras, Graphcore или Groq, делают ставку на уникальные решения для преодоления конкретных узких мест.

Для разработчиков ИИ-агентов, чьи аппетиты в вычислительных ресурсах растут быстрее, чем следует закону Мура, выбор оптимального «железа» становится ключевым конкурентным преимуществом. Возможно, в ближайшие годы мы увидим больше подобных альянсов, где стартапы-новаторы в области софта будут строить свой успех на партнерстве с вендорами специализированного хада.