Оглавление

Американская компания Anthropic публично обвинила трёх крупных китайских разработчиков искусственного интеллекта — DeepSeek, Moonshot AI и MiniMax — в проведении масштабных скоординированных операций по нелегальному извлечению и репликации технологий своей передовой модели Claude. Как сообщает The Financial Express, Anthropic утверждает, что эти фирмы создали около 24 000 поддельных учётных записей для генерации более 16 миллионов взаимодействий с Claude, используя метод, известный как «дистилляция», для обучения собственных конкурирующих моделей.

«Дистилляция» в контексте ИИ предполагает использование выходных данных более продвинутой модели для быстрого улучшения менее способной. Это позволяет конкурентам приобретать сложные возможности, такие как агентное мышление, кодирование, использование инструментов и оркестрация, без необходимости независимой разработки. Anthropic охарактеризовала эти кампании как высокоорганизованные, использующие фальшивые аккаунты, коммерческие прокси-сервисы и тактики уклонения для обхода её условий обслуживания, которые запрещают сбор данных для обучения и ограничивают доступ из Китая.

Масштаб обвинений и риски

Согласно заявлению Anthropic, MiniMax приложила наибольшие усилия, сгенерировав более 13 миллионов взаимодействий, в то время как Moonshot произвела более 3,4 миллиона. DeepSeek, в свою очередь, сосредоточилась на извлечении пошаговых трассировок рассуждений. Компания подчеркнула, что эти операции были направлены на наиболее сильные отличительные черты Claude, а не на общие потребительские запросы. В случае MiniMax, активность была обнаружена в реальном времени до выпуска дистиллированной модели.

Anthropic предупредила, что скопированные модели могут не обладать встроенными механизмами безопасности Claude, что увеличивает риски неправомерного использования. Это включает генерацию вредоносного контента, содействие кибератакам или облегчение других злонамеренных приложений. Компания также связала инцидент с более широкой геополитической напряжённостью, утверждая, что такие практики подрывают экспортный контроль США над передовыми чипами и оборудованием для ИИ, позволяя реплицировать передовые возможности с меньшими затратами.

Попытки «дистилляции» моделей ИИ, безусловно, являются вызовом для правообладателей, но и демонстрируют определённую наивность в стратегическом планировании. Копирование поведения без понимания архитектуры и, главное, без воспроизведения этических фильтров — это путь к созданию «зомби-ИИ», который может быть эффективен в узких задачах, но станет токсичным в широком применении. Истинная ценность лежит не в имитации ответов, а в фундаментальных инновациях и, что критично, в надёжных механизмах безопасности, которые невозможно просто «дистиллировать» из чужих моделей.

Ответные меры и контекст

Anthropic заявила, что усиливает системы обнаружения, улучшает верификацию учётных записей и сотрудничает с коллегами для борьбы с аналогичными угрозами. На момент публикации не поступало немедленных публичных ответов от DeepSeek, Moonshot или MiniMax в связи с этими обвинениями.

Эти обвинения перекликаются с аналогичными заявлениями OpenAI, сделанными ранее в феврале 2026 года, когда компания обвинила DeepSeek в нацеливании на американские модели для дистилляции. Подобные инциденты разворачиваются на фоне продолжающихся дебатов в США о ужесточении экспортных ограничений на чипы для ИИ в Китай, подчёркивая эскалацию трений в глобальной гонке за лидерство в области искусственного интеллекта.

Обход запрета

Также китайский стартап Deepseek, по всей видимости, обучил свою новейшую модель искусственного интеллекта на самых мощных чипах Nvidia Blackwell, несмотря на действующий экспортный запрет США. Об этом сообщает Reuters со ссылкой на высокопоставленного чиновника администрации Трампа. Ожидается, что новая модель будет представлена уже на следующей неделе, как отмечает the-decoder.com.

Предполагается, что чипы Blackwell находятся в центре обработки данных в китайском регионе Внутренняя Монголия. По словам того же чиновника, Deepseek, вероятно, предпримет меры для удаления технических «отпечатков» использования американских чипов перед публичным релизом модели. Источник не уточнил, каким образом стартап получил доступ к запрещенному оборудованию.