Оглавление

На предстоящем саммите в Пекине президент США Дональд Трамп и председатель КНР Си Цзиньпин намерены сосредоточиться на вопросах безопасности искусственного интеллекта. Как сообщает CNBC, повестка встречи формируется на фоне стремительного сокращения технологического разрыва между китайскими разработками и американскими моделями ИИ.

Для профессионального сообщества этот диалог выглядит закономерным этапом: когда технологии выходят на уровень влияния на национальную безопасность, политики неизбежно пытаются очертить границы дозволенного. Китайские компании в последнее время демонстрируют впечатляющую динамику, приближая свои LLM (большие языковые модели) к показателям лидеров индустрии из Кремниевой долины.

Ситуация осложняется тем, что гонка вооружений в сфере алгоритмов теперь дополняется необходимостью выработки общих протоколов безопасности. Тот факт, что стороны готовы обсуждать риски, может свидетельствовать о признании обеими сверхдержавами непредсказуемости систем, способных перерасти возможности человеческого контроля.

Сокращение технологической дистанции

Долгое время считалось, что экспортные ограничения на чипы и закрытость экосистем затормозят развитие китайского ИИ. Однако реальность оказалась ироничнее: адаптивность восточных инженеров позволила им оптимизировать обучение моделей даже в условиях дефицита передового железа. Сейчас разрыв измеряется уже не годами, а месяцами, что заставляет Вашингтон пересматривать стратегию.

В кулуарах обсуждается, что Пекин заинтересован в легитимизации своих стандартов безопасности на международном уровне. Для администрации Трампа же критически важно сохранить технологическое лидерство, не допустив при этом сценария, где «галлюцинации» или ошибки ИИ-систем в критической инфраструктуре приведут к неконтролируемой эскалации между странами.

Попытка договориться о безопасности — это скорее стремление заморозить статус-кво, чем реальное желание контролировать код. В итоге мы получим не общие стандарты, а «цифровой этикет» для систем, которые всё равно будут обучаться на разных ценностях.

Человеческий фактор в цифровой гонке

За абстрактными разговорами о параметрах моделей и вычислительных мощностях стоят вполне осязаемые последствия для глобального рынка труда и кибербезопасности. Если лидеры двух крупнейших экономик найдут точки соприкосновения, это может привести к созданию системы взаимного аудита алгоритмов, что звучит почти фантастически для нынешнего геополитического климата.

Тем не менее, эксперты отмечают, что любые договоренности в этой сфере останутся декларативными до тех пор, пока не будет решен вопрос верификации. В отличие от ядерных боеголовок, код нельзя посчитать со спутника, а «безопасный» алгоритм легко превращается в инструмент кибератаки путем простой смены параметров fine-tuning (дообучения). Ожидается, что итоги встречи дадут индустрии понимание, станет ли ИИ мостом для диалога или новым «железным занавесом».