Оглавление
Anthropic представила обновление своего флагмана — Claude Opus 4.7, которое наглядно демонстрирует, как разработчики пытаются нащупать баланс между вычислительной мощью и цифровой гигиеной. Как сообщает The Decoder, новая модель совершила заметный рывок в написании кода, одновременно с этим получив искусственные ограничения в области кибербезопасности.
На профильном бенчмарке SWE-bench Pro модель показала результат в 64,3%, уверенно обойдя своего предшественника и даже GPT-5.4 от OpenAI. Любопытно, что Anthropic сознательно сделала Opus 4.7 более «буквальным»: теперь нейросеть старается точнее следовать инструкциям, что может потребовать от пользователей пересмотра старых промптов, которые раньше интерпретировались более вольно.
Зрение стало острее, а галлюцинации — реже
Техническое зрение модели претерпело серьезную модернизацию. Теперь разрешение обрабатываемых изображений увеличилось втрое, достигая 3,75 мегапикселя. Для тех, кто привык использовать ИИ-агентов для анализа плотных скриншотов или извлечения данных из перегруженных диаграмм, это изменение станет едва ли не более важным, чем успехи в программировании.
В вопросах достоверности Opus 4.7 демонстрирует прогресс, хотя и не избавляет нас от галлюцинаций полностью. Разработчики разделяют ошибки на фактические и «входные» — когда модель выдумывает наличие инструментов, которых ей не давали. В последнем случае новая версия стала значительно честнее, реже претендуя на возможности, которыми не обладает.
Попытка Anthropic усидеть на двух стульях — развивать автономный кодинг и душить кибер-навыки — выглядит как создание гоночного болида с заблокированной пятой передачей. Ограничение возможностей пентеста под предлогом безопасности лишь переносит риски в серую зону, где менее «этичные» модели без купюр станут единственным выбором профессионалов. В итоге мы получаем отличный инструмент для разработки, который в любой момент может ответить отказом на сложную техническую задачу, сочтя ее подозрительной.
Кибербезопасность под замком и тонкости тарификации
Особого внимания заслуживает стратегия Anthropic по внедрению предохранителей в рамках Project Glasswing. Компания намеренно снизила способности модели к проведению кибератак еще на этапе обучения. Для легальных исследователей безопасности вводится специальная программа верификации, без которой многие запросы на «красную команду» (red-teaming) будут блокироваться автоматически.
Несмотря на то что номинальная стоимость токенов осталась прежней — 5 долларов за миллион входных и 25 за миллион выходных — реальные расходы пользователей могут вырасти. Виной тому новый токенизатор, который превращает тот же объем текста в большее количество токенов (рост до 35%), что напоминает скрытую инфляцию в мире алгоритмов.
Для тех, кто планирует интеграцию новой модели, стоит учитывать следующие изменения в инструментарии:
- Появление уровня усилий xhigh для более глубокой проработки задач;
- Новая команда /ultrareview в Claude Code для дотошного аудита кода;
- Расширенный автономный режим Auto Mode для пользователей тарифного плана Max.
В конечном счете, Opus 4.7 кажется попыткой Anthropic создать «безопасный идеал» корпоративного помощника. Модель доступна через стандартные API и облачные платформы, но разработчикам придется привыкнуть к тому, что за повышенную точность и зоркость придется платить не только деньгами, но и определенной потерей гибкости в вопросах информационной безопасности.
Оставить комментарий