Оглавление

Компания Anthropic обновила правила использования своего ИИ-ассистента Claude, явно запретив применение технологии для создания биологического, химического, ядерного и радиологического оружия. Как сообщает The Verge, изменения вводят также новые ограничения в сфере кибербезопасности, одновременно смягчая регулирование политического контента.

Конкретизация запретов

В новой версии политики допустимого использования появились явные формулировки о недопустимости разработки:

  • Высокотоксичных взрывчатых веществ
  • Биологического оружия (B)
  • Ядерного оружия (N)
  • Химического оружия (C)
  • Радиологического оружия (R)

Ранее существовал лишь общий запрет на создание систем, способных причинить вред людям. Обновление стало ответом на активацию уровня безопасности ASL-3 в мае 2025 года, призванного усложнить взлом модели и предотвратить помощь в разработке ОМУ.

Кибербезопасность и новые риски

Компания выделила отдельный раздел «Не нарушайте работу компьютерных систем», запрещающий:

  • Поиск и эксплуатацию уязвимостей
  • Создание и распространение вредоносного ПО
  • Разработку инструментов для DDoS-атак

Эти меры связаны с рисками новых функций — Computer Use (прямое управление компьютером) и Claude Code (интеграция в терминал разработчика), способных масштабировать кибератаки.

Либерализация политического контента

Paradoxально, но Anthropic ослабила контроль над политическими материалами. Вместо полного запрета на контент для кампаний теперь ограничены только:

  • Обманные практики
  • Действия, подрывающие демократические процессы
  • Таргетирование избирателей и кампаний

Также уточнено, что требования для «высоко рисковых» сценариев (например, персональные рекомендации) применяются только к B2C-сегменту.

Хотя явный запрет на ОМУ — необходимый шаг, его эффективность зависит от устойчивости Claude к jailbreak. Ослабление политики в политике — мудрый ход, признающий, что ИИ стал инструментом медиаландшафта. Однако киберзащитные меры выглядят реактивными: Anthropic сначала выпустила рискованные функции (Computer Use), а теперь «закрывает дверь». Реальный тест — сможет ли ASL-3 блокировать сложные многошаговые запросы злоумышленников, что технически сложнее, чем фильтровать очевидные ключевые слова.