Компания Anthropic обновила правила использования своего ИИ-ассистента Claude, явно запретив применение технологии для создания биологического, химического, ядерного и радиологического оружия. Как сообщает The Verge, изменения вводят также новые ограничения в сфере кибербезопасности, одновременно смягчая регулирование политического контента.
Конкретизация запретов
В новой версии политики допустимого использования появились явные формулировки о недопустимости разработки:
- Высокотоксичных взрывчатых веществ
- Биологического оружия (B)
- Ядерного оружия (N)
- Химического оружия (C)
- Радиологического оружия (R)
Ранее существовал лишь общий запрет на создание систем, способных причинить вред людям. Обновление стало ответом на активацию уровня безопасности ASL-3 в мае 2025 года, призванного усложнить взлом модели и предотвратить помощь в разработке ОМУ.
Кибербезопасность и новые риски
Компания выделила отдельный раздел «Не нарушайте работу компьютерных систем», запрещающий:
- Поиск и эксплуатацию уязвимостей
- Создание и распространение вредоносного ПО
- Разработку инструментов для DDoS-атак
Эти меры связаны с рисками новых функций — Computer Use (прямое управление компьютером) и Claude Code (интеграция в терминал разработчика), способных масштабировать кибератаки.
Либерализация политического контента
Paradoxально, но Anthropic ослабила контроль над политическими материалами. Вместо полного запрета на контент для кампаний теперь ограничены только:
- Обманные практики
- Действия, подрывающие демократические процессы
- Таргетирование избирателей и кампаний
Также уточнено, что требования для «высоко рисковых» сценариев (например, персональные рекомендации) применяются только к B2C-сегменту.
Хотя явный запрет на ОМУ — необходимый шаг, его эффективность зависит от устойчивости Claude к jailbreak. Ослабление политики в политике — мудрый ход, признающий, что ИИ стал инструментом медиаландшафта. Однако киберзащитные меры выглядят реактивными: Anthropic сначала выпустила рискованные функции (Computer Use), а теперь «закрывает дверь». Реальный тест — сможет ли ASL-3 блокировать сложные многошаговые запросы злоумышленников, что технически сложнее, чем фильтровать очевидные ключевые слова.
Оставить комментарий