Anthropic внедрил в Claude Opus функцию принудительного завершения диалогов при вредоносных запросах, мотивируя это защитой «благополучия» ИИ-модели. Нововведение ограничено экстремальными случаями вроде запросов на незаконный контент.
Глобальные инициативы по регулированию AGI включают сертификацию систем и запрет военного применения. Эксперты обсуждают реализуемость контроля над сверхразумным ИИ.
Компания Anthropic поддержала инфраструктурные инициативы американского плана развития ИИ, но раскритиковала ослабление экспортного контроля и недостаток требований к прозрачности разработки ИИ.
Anthropic представил индекс экономического влияния ИИ на основе анализа миллионов диалогов с Claude. Исследование выявило преобладание усиления над автоматизацией и неравномерное внедрение по отраслям.
Преподаватель истории запрещает ИИ в классе после того, как ChatGPT-5 научился идеально имитировать стиль студентов. Его решение — 100% работ под наблюдением.
Anthropic увеличил контекстное окно Claude Sonnet 4 до 1 млн токенов, обойдя GPT-5. Обновление поможет разработчикам работать с крупными кодовыми базами, но эффективность сверхдлинных контекстов остается под вопросом.