Эксперты Stanford HAI прогнозируют, что 2026 год станет переломным для индустрии ИИ. На смену всеобщему энтузиазму придет прагматичная оценка реальной пользы, ROI и интерпретируемости моделей, особенно в науке, медицине и юриспруденции.
Cerebras представила Implicit Chain Transformer — архитектуру, решающую проблему отсутствия памяти у языковых моделей. Новая модель передает «вектор намерения» между токенами, что позволяет эффективно поддерживать состояние в задачах вроде сложения по модулю и обхода графа.
Корейский стартап Motif опубликовал отчет с воспроизводимым рецептом обучения LLM, раскрывая четыре практических урока для корпоративных команд: от выравнивания данных до оптимизации памяти.
Главный научный сотрудник Meta Янн Лекун в споре с DeepMind объяснил, почему большие языковые модели — тупиковый путь к AGI.
Creative Commons объявила об осторожной поддержке систем платного сканирования сайтов для ИИ. Это признание новой реальности, где традиционная модель веб-трафика рухнула, а создателям контента нужна компенсация.
Nvidia приобрела SchedMD, компанию-разработчика системы управления заданиями Slurm, что усиливает ее контроль над программным стеком для суперкомпьютеров и ИИ-инфраструктуры.