Архитектура MoE — основа для всех ИИ-моделей из ТОП-10
Архитектура смеси экспертов становится стандартом для передовых моделей ИИ, обеспечивая эффективность и производительность без роста затрат. NVIDIA GB200 NVL72 ускоряет такие модели в 10 раз.
Последние новости о больших языковых моделях (LLM): GPT, Claude, Gemini, LLaMA и другие. Обзоры новых релизов, сравнения моделей, анализ возможностей и ограничений современных LLM. Следите за развитием технологий искусственного интеллекта в области обработки естественного языка. Практические кейсы применения, туториалы и экспертные мнения.
Архитектура смеси экспертов становится стандартом для передовых моделей ИИ, обеспечивая эффективность и производительность без роста затрат. NVIDIA GB200 NVL72 ускоряет такие модели в 10 раз.
Исследователи из MIT разработали метод instance-adaptive scaling, позволяющий большим языковым моделям динамически распределять вычислительные ресурсы в зависимости от сложности задач, снижая расходы в два раза при сохранении точности.
OpenAI представила эксперимент ‘признаний’ для ChatGPT, где модель после ответа сама отчитывается о нарушениях правил. Это шаг к повышению честности, но с открытыми вопросами о джейлбрейке и будущих моделях.
Liquid AI опубликовала детальный технический отчёт по своей архитектуре LFM2, предлагая корпорациям открытый blueprint для создания небольших, эффективных моделей, работающих непосредственно на устройствах.
Deepseek выпустил открытую модель V3.2, которая по математическим и программным тестам сравнялась с GPT-5 и Gemini 3 Pro, а её версия Speciale завоевала золото на международных олимпиадах.
Девять американских газет подали иск к OpenAI и Microsoft на сумму до $10 млрд, обвиняя в использовании статей без лицензии. Суд также требует раскрыть данные о тренировочных наборах из пиратской библиотеки.