Новый метод GEPA от исследователей из Berkeley, Stanford и Databricks предлагает в 35 раз более эффективную оптимизацию языковых моделей без дорогостоящего обучения с подкреплением.
Новое ядро Triton для Grouped GEMM ускоряет обучение MoE-моделей в 2.62 раза на NVIDIA H100 за счет persistent kernel, cache-aware вычислений и TMA.
Канадский стартап Cohere назначает экс-главу FAIR Meta Джоэль Пинно на пост CAIO для усиления исследований. Стратегический ход на фоне отставания от лидеров ИИ-рынка.
Китайская компания DeepSeek откладывает выпуск новой языковой модели из-за низкой производительности отечественных чипов, что подчёркивает технологические сложности в условиях санкций.
ИИ создаёт миллиардеров быстрее, чем когда-либо: 498 единорогов стоимостью $2,7 трлн, включая 100 новых за два года. Примеры: Anthropic, OpenAI, Thinking Machines Lab. Состояния основателей растут экспоненциально.
Анализ применения искусственного интеллекта в современной войне, включая гонку вооружений и психологическое воздействие. Почему глобальное регулирование ИИ необходимо.