По сообщению TechCrunch, Anthropic существенно расширил возможности своей флагманской модели для разработчиков. Claude Sonnet 4 теперь поддерживает контекстное окно в 1 миллион токенов — это эквивалентно 750 000 словам или 75 000 строк кода, что превосходит предыдущий лимит в 5 раз и обходит GPT-5 от OpenAI (400 000 токенов).
Технические детали и рыночный контекст
Нововведение доступно через API Anthropic и облачные платформы Amazon Bedrock/Google Vertex AI. Особенности обновления:
- Увеличенная емкость позволяет анализировать целиком крупные проекты — от полного кода приложения до документации объемом с «Властелина Колец»
- Особенно полезно для агентных задач, где ИИ автономно работает минуты/часы, сохраняя историю действий
- При превышении 200 000 токенов тариф меняется: $6/млн входных и $22.5/млн выходных токенов
Это стратегический ход: Anthropic доминирует на рынке корпоративных ИИ-ассистентов (70% enterprise-предпочтений), но GPT-5 активно теснит его в инструментах вроде Cursor. Глава продукта Брэд Эбрамс в интервью подчеркивает: «Мы довольны ростом API-бизнеса», — игнорируя вопросы о конкуренции.
Гонка контекстных окон: маркетинг vs реальность
Хотя Google и Meta анонсировали окна до 2-10 млн токенов, исследования (TechCrunch, 2024) показывают: модели плохо усваивают сверхдлинные контексты. Anthropic фокусируется на эффективном использовании окна, но детали методов не раскрывает. Одновременно выпущен Claude Opus 4.1 с улучшенной кодогенерацией.
Как практик, вижу здесь два слоя. Для разработчиков — это реальное ускорение работы с монолитными кодовыми базами: наконец-то можно скормить модели весь legacy-проект без ручной сегментации. Но маркетинговые мега-цифры (10 млн токенов!) часто не подкреплены качеством. Ключевой вопрос — не «сколько символов», а «насколько точно модель извлекает аргумент из 900-й страницы». В практике, где часто работают с унаследованными системами, это особенно актуально. Плата за объем — закономерна: хочешь анализировать «Войну и мир» — плати как за трилогию.
Оставить комментарий