Deepseek выпустил открытую модель V3.2, которая по математическим и программным тестам сравнялась с GPT-5 и Gemini 3 Pro, а её версия Speciale завоевала золото на международных олимпиадах.
AMD и Meta* достигли 96% эффективности масштабирования при обучении MoE-моделей на 1024 GPU с помощью TorchTitan и Primus-Turbo.
Китайская компания DeepSeek выпустила открытую математическую модель, решающую задачи Международной олимпиады на уровне золотой медали, бросив вызов закрытым системам OpenAI и Google.
Китайские ученые разработали метод квантового сжатия ИИ-моделей, уменьшив DeepSeek-R1 в 10 раз с сохранением 97% производительности.
Стартапы создают компактные ИИ-модели с меньшим числом параметров, которые превосходят гигантов в специализированных задачах при значительно меньших затратах.
Китайские ИИ-модели DeepSeek и Qwen показали доходность более 100% в криптотрейдинге, оставив позади GPT-5 и Gemini. Соревнование демонстрирует растущую конкуренцию в сфере ИИ.