LLM

Последние новости о больших языковых моделях (LLM): GPT, Claude, Gemini, LLaMA и другие. Обзоры новых релизов, сравнения моделей, анализ возможностей и ограничений современных LLM. Следите за развитием технологий искусственного интеллекта в области обработки естественного языка. Практические кейсы применения, туториалы и экспертные мнения.

Scale запускает SEAL Showdown

Scale запускает SEAL Showdown — рейтинг LLM на основе отзывов реальных пользователей

Scale запустила SEAL Showdown — первый рейтинг языковых моделей на основе оценок реальных пользователей из 100+ стран с детальной сегментацией по демографии.

ChatGPT не справляется с научными статьями

ChatGPT не справляется с научными статьями: даже не может составить саммари по готовому тексту

Годовое исследование AAAS показало, что ChatGPT плохо справляется с суммаризацией научных статей, жертвуя точностью ради простоты и требуя такой же проверки фактов, как ручное написание.

Perplexity vs ChatGPT

Что выберете: Perplexity или ChatGPT? Или сравнительный анализ языковых моделей 2025 года

Сравнение Perplexity и ChatGPT в 2025 году: скорость, точность и творческий потенциал двух ведущих языковых моделей с экспертным анализом сильных сторон каждой платформы.

Google разработал TTD-DR

Google показывает свой подход к созданию исследовательских отчетов с помощью диффузионных моделей

Google Research представила TTD-DR — систему, которая моделирует написание исследовательских отчетов как диффузионный процесс, достигая новых рекордов качества.

Writer выпускает Palmyra-mini

Writer выпускает семейство компактных языковых моделей Palmyra-mini с рекордной производительностью

WRITER выпустила семейство компактных языковых моделей Palmyra-mini с рекордной производительностью до 15,6 тыс. токенов/с на одном GPU и конкурентными способностями к рассуждению.

xAI выпустила Grok 4 Fast

xAI выпустила оптимизированную языковую модель Grok 4 Fast с экономией токенов до 40%

xAI представила оптимизированную языковую модель Grok 4 Fast с экономией вычислений до 40% и снижением стоимости задач на 98% при сохранении производительности уровня GPT-5.