Оглавление
Несмотря на многомиллиардные инвестиции в разработку отечественных решений, китайские технологические гиганты остаются привязаны к GPU Nvidia для задач искусственного интеллекта, сообщает Tom’s Hardware. Аналитики выделяют три ключевые преграды: раздробленность программных экосистем, ограничения производства и сохраняющееся отставание в производительности.
Неоспоримое лидерство Nvidia
Чипы серий A100 и H100 стали отраслевым стандартом для обучения нейросетей. Экосистема CUDA с оптимизированными библиотеками создает эффект «золотой клетки»: Alibaba, Tencent и Baidu вынуждены использовать эти решения для критически важных AI-ворклоудов.
Трудности китайских аналогов
Проекты Huawei, Biren и Moore Threads сталкиваются с системными проблемами:
- Отсутствие единой ПО-платформы: Разработчикам приходится адаптировать код под разные архитектуры
- Технологические барьеры: Экспортные ограничения США на EUV-литографию блокируют выпуск конкурентных чипов
- Энергоэффективность: Локальные аналоги уступают в TFLOPS/Watt на 30-50%
Логистический тупик
Глобальные цепочки поставок Nvidia отрабатывали десятилетиями, тогда как китайские производители борются с низким выходом годных пластин. Мощностей не хватает даже для покрытия 15% внутреннего спроса на AI-ускорители.
Геополитический контекст
Санкции вынудили Nvidia создавать «урезанные» версии чипов (A800/H800), но это лишь замедлило, а не сократило зависимость. Альтернативы остаются технологически сырыми.
Прогнозы о 5-10 годах на создание конкурентоспособного стека выглядят излишне оптимистично. CUDA — не просто API, а 20-летняя инфраструктура с миллиардами строк кода. Китай может нарастить производство чипов, но воспроизведение экосистемы потребует кооперации всего рынка — а фрагментированность как раз главная слабость их модели. Парадокс: санкции усиливают монополию Nvidia, вынуждая клиентов цепляться за легальные поставки.
Эксперты сходятся во мнении: в ближайшие годы Китай сможет заместить лишь нишевые сегменты, тогда как тренировка флагманских LLM останется прерогативой «зеленых» GPU.
Оставить комментарий