LLM

Последние новости о больших языковых моделях (LLM): GPT, Claude, Gemini, LLaMA и другие. Обзоры новых релизов, сравнения моделей, анализ возможностей и ограничений современных LLM. Следите за развитием технологий искусственного интеллекта в области обработки естественного языка. Практические кейсы применения, туториалы и экспертные мнения.

Бенчмарк Audio MultiChallenge

Новый бенчмарк Audio MultiChallenge показал, насколько плохо ИИ понимает живую речь

Scale представила бенчмарк Audio MultiChallenge, который тестирует голосовые ИИ на реалистичных диалогах с исправлениями и паузами. Лидером стал Gemini 3 Pro, а GPT-4o значительно отстал.

Google Gemini 3 Flash

Уже доступна Google Gemini 3 Flash — быстрая языковая модель для разработчиков

Google представила Gemini 3 Flash — оптимизированную языковую модель, которая сочетает производительность флагмана с низкой задержкой и стоимостью, нацеленную на разработчиков и массовое внедрение.

OpenAI представила FrontierScience

OpenAI представила FrontierScience — новый бенчмарк для оценки научных способностей ИИ

OpenAI анонсировала FrontierScience — новый комплексный бенчмарк для оценки способностей ИИ к научным рассуждениям экспертного уровня в физике, химии и биологии.

Консорциум разработал EuroLLM-22B

Консорциум европейских компаний и университетов выпустил языковую модель EuroLLM-22B

Консорциум европейских университетов и компаний выпустил полностью открытую языковую модель EuroLLM-22B, обученную на суперкомпьютере и поддерживающую все языки ЕС.

Прогноз от Stanford HAI

Прогноз от Stanford HAI: 2026-й станет годом прагматичной оценки ИИ

Эксперты Stanford HAI прогнозируют, что 2026 год станет переломным для индустрии ИИ. На смену всеобщему энтузиазму придет прагматичная оценка реальной пользы, ROI и интерпретируемости моделей, особенно в науке, медицине и юриспруденции.

Cerebras создала Implicit Chain Transformer

Cerebras создала новую архитектуру нейросетей, чтобы решить проблему памяти у LLM

Cerebras представила Implicit Chain Transformer — архитектуру, решающую проблему отсутствия памяти у языковых моделей. Новая модель передает «вектор намерения» между токенами, что позволяет эффективно поддерживать состояние в задачах вроде сложения по модулю и обхода графа.