Google разработала метод вложенного обучения для борьбы с катастрофическим забыванием в языковых моделях. Новая архитектура HOPE позволяет ИИ сохранять долговременные воспоминания после обучения.
Новый физический бенчмарк CritPt показывает, что Gemini 3 Pro и GPT-5 демонстрируют точность менее 10% на реальных исследовательских задачах уровня аспиранта.
Метод Delerp позволяет создавать более эффективные языковые модели путем слияния предварительно обученных моделей без дорогостоящего дообучения, открывая новые возможности для кастомизации.
Hugging Face TRL интегрировался с RapidFire AI, позволяя запускать параллельную тонкую настройку языковых моделей с ускорением до 20 раз через адаптивное чанковое планирование.
Стартап Lightfield бросил успешное приложение для презентаций с 20 млн пользователей, чтобы создать CRM на базе ИИ, которая автоматически отслеживает клиентские взаимодействия без ручного ввода данных.
Allen Institute for AI выпустил OLMo 3 — первую полностью открытую модель мышления с прозрачной логикой рассуждений и в 2,5 раза более эффективную, чем аналоги.