LLM

Последние новости о больших языковых моделях (LLM): GPT, Claude, Gemini, LLaMA и другие. Обзоры новых релизов, сравнения моделей, анализ возможностей и ограничений современных LLM. Следите за развитием технологий искусственного интеллекта в области обработки естественного языка. Практические кейсы применения, туториалы и экспертные мнения.

OpenAI выпускает ChatGPT Atlas

OpenAI выпускает ChatGPT Atlas — браузер со встроенным ИИ-помощником

OpenAI представила ChatGPT Atlas — браузер со встроенным ИИ-помощником, способным автоматизировать задачи, запоминать контекст и работать непосредственно в интернете.

gpt-oss-120b получила золотую медаль

Открытая модель gpt-oss-120b получила золотую медаль IOI 2025 за масштабирование вычислений

Открытая модель gpt-oss-120b впервые достигла уровня золотой медали на Международной олимпиаде по информатике благодаря фреймворку GenCluster, масштабирующему тестовые вычисления.

Ling 2.0 Sparse

Новая архитектура Ling 2.0 Sparse ускоряет обработку длинных контекстов в три раза

Новая архитектура Ling 2.0 Sparse объединяет разреженные механизмы внимания с Mixture of Experts, обеспечивая трехкратное ускорение обработки длинных контекстов в языковых моделях.

GPT-5 не решил задачи Эрдёша

Скандал в OpenAI: GPT-5 не решил задачи Эрдёша, а просто нашел ответы в интернете

Исследователь OpenAI заявил о решении задач Эрдёша с помощью GPT-5, но оказалось, что система просто нашла готовые ответы в интернете.

Claude выходит на рынок биотехнологий

Claude выходит на рынок биотехнологий с новыми научными инструментами

Anthropic представила специализированное решение Claude для наук о жизни с интеграциями научных платформ, улучшенными показателями в биомедицинских задачах и партнерствами с ведущими консалтинговыми компаниями.

SwiReasoning улучшает рассуждения

Новый фреймворк SwiReasoning улучшает рассуждения языковых моделей

Фреймворк SwiReasoning от Georgia Tech и Microsoft учит языковые модели переключаться между явными и скрытыми режимами рассуждения, повышая точность на 2,8% и эффективность токенов в 6,8 раз.