AI Hardware

Зависимость Nvidia от азиатской цепочки поставок достигла 90

Производственные затраты Nvidia теперь в подавляющем большинстве зависят от азиатских цепочек поставок – это стремительный скачок, который может создать значительные препятствия для гиганта ИИ. Этот сейсмический сдвиг вызван как уже устоявшимся аппаратным обеспечением для центров обработки данных, так и быстро расширяющимися физическими ИИ-амбициями.

Чип Nvidia GPU с видимыми связями цепочки поставок, исходящими из Азии.

Key Takeaways

  • Затраты Nvidia на производство в Азии выросли до 90% с 65% за год.
  • Расширение производства физических ИИ-продуктов, таких как робототехника, усиливает нагрузку на и так перегруженные азиатские цепочки поставок памяти и кремниевых пластин.
  • Хотя инвестиции в американское производство осуществляются, они пока недостаточны для удовлетворения растущего спроса и снижения текущей зависимости от азиатских цепочек поставок.

Азиатские поставщики теперь обеспечивают поразительные 90% производственных затрат Nvidia, что резко увеличилось с примерно 65%, зафиксированных всего год назад, согласно данным Bloomberg. Речь идет не только о самом кремнии; сюда входит производство TSMC, память HBM от гигантов вроде SK Hynix и Samsung, и даже финальная сборка серверов такими титанами, как Foxconn и Quanta. Это концентрация, которая, несмотря на свою масштабность и эффективность, несет в себе присущие риски.

Но вот в чем загвоздка: эта и без того немалая зависимость скоро станет еще более выраженной. Стремление Nvidia к «физическому ИИ» — речь идет о робототехнике и автономных системах — стремительно выводит на рынок совершенно новые категории продуктов, которые идут напрямую через те же азиатские производственные артерии. Например, роботизированная платформа Jetson Thor, построенная на архитектуре Blackwell и использующая передовой 3-нм процесс TSMC, требует памяти от Samsung или SK Hynix. Это не просто сноски; это ключевые компоненты, напрямую конкурирующие за ту же ограниченную мощность кремниевых пластин, которая питает GPU Nvidia для центров обработки данных.

Станет ли физический ИИ новым Ахиллесом Nvidia?

Эта экспансия в сферу физического ИИ — не какой-то незначительный побочный проект. Топовый модуль Jetson Thor T5000 может похвастаться ошеломляющими 2 070 FP4 TFLOPS в сочетании со 128 ГБ памяти LPDDR5X. Даже более доступный вариант T4000, стоимостью 1 999 долларов при оптовых закупках, предлагает внушительные 1 200 FP4 TFLOPS с 64 ГБ. Оба построены на ядрах Arm Neoverse-V3AE CPU и используют память LPDDR5X, поставляемую теми же азиатскими поставщиками, которые уже работают на пределе. Последствия ясны: передовые робототехнические и автомобильные платформы Nvidia, такие как автомобильный SoC DRIVE AGX Thor, теперь напрямую конкурируют за ограниченные 3-нм кремниевые пластины и критически важные объемы памяти LPDDR5X, спрос на которые уже высок для продуктов центров обработки данных.

Хотя эти физические ИИ-продукты не требуют ультракритичного продвинутого упаковочного решения CoWoS от TSMC — текущего узкого места для высокопроизводительных GPU для дата-центров — они абсолютно потребляют 3-нм кремниевые пластины и память LPDDR5X азиатского производства. Оба рынка и так находятся в дефиците. Это не гипотетическая проблема; это непосредственное ограничение.

Отголоски этого дефицита памяти уже ощущаются в других сферах. Nvidia недавно ускорила сроки вывода из эксплуатации своих старых модулей Jetson TX2 и Xavier. Почему? Поставки LPDDR4 стали настолько ограничены, что поддерживать производство больше нецелесообразно. Samsung переориентировала свое внимание с LPDDR4, а неутолимый спрос на ИИ направил производственные мощности памяти на более маржинальные продукты — именно то, что нужно Nvidia для ее новых, более продвинутых платформ. Это заставляет существующих клиентов Jetson переходить на модули Orin или Thor, которые полагаются на LPDDR5X от тех же азиатских поставщиков памяти, чьи мощности уже перегружены запросами на HBM и DRAM для дата-центров. Классический пример того, как рыночные силы создают эффект домино.

«Ни один из этих физических ИИ-продуктов не требует продвинутого упаковочного решения CoWoS от TSMC, которое остается основным узким местом для производства GPU для дата-центров, но они потребляют 3-нм кремниевые пластины и память LPDDR5X азиатского производства, оба из которых уже находятся в дефиците».

Обязательства Nvidia по созданию производственных мощностей серверов в США на сумму 500 миллиардов долларов с партнерами вроде Foxconn и Wistron, а также создание предприятий по передовой упаковке в Аризоне компаниями Amkor и SPIL — все это шаги в правильном направлении. Однако эти отечественные операции еще не достигли масштабов производства. Реальность такова, что линейки физических ИИ-продуктов Nvidia расширяют спектр компонентов, поставляемых из Азии, со скоростью, значительно превосходящей текущую способность отечественного производства их поглотить. Этот растущий разрыв, вызванный спросом на более сложное, интегрированное оборудование, представляет собой критическую стратегическую проблему.

Почему это важно для будущего Nvidia?

Быстрое усиление зависимости от азиатской цепочки поставок, которая теперь составляет 90% производственных затрат, — это палка о двух концах. С одной стороны, это отражает доминирование Nvidia в обеспечении передовых производственных мощностей, необходимых для выпуска ее новейших ИИ-чипов. С другой стороны, это концентрирует колоссальные объемы у ограниченного числа поставщиков, многие из которых расположены в геополитически чувствительном регионе. Это не новая проблема для полупроводниковой отрасли, но колоссальный масштаб Nvidia и критическая важность ее продуктов усиливают ставки. Агрессивное расширение компании в сферу физического ИИ, хотя и является стратегически обоснованным для захвата рынка, одновременно углубляет эту производственную зависимость. Инвесторы и аналитики будут пристально следить за тем, как Nvidia будет ориентироваться в этой сложной паутине производственных потребностей и геополитических реалий. Эпоха легко масштабируемого ИИ-оборудования, возможно, наткнулась на стену со стороны предложения, и Nvidia, несмотря на свои технологические возможности, не является исключением.

**


🧬 Связанные аналитические материалы

Часто задаваемые вопросы**

Что означает растущая зависимость Nvidia от азиатских цепочек поставок для доступности продукции? Это означает потенциальные задержки и повышение цен в случае сбоев в цепочке поставок, поскольку у Nvidia имеется ограниченное количество отечественных альтернатив в масштабе для ключевых компонентов, таких как передовая память и производство кремниевых пластин.

Повлияет ли это на стоимость ИИ-оборудования? Да, повышенный спрос и ограниченное предложение, особенно для таких компонентов, как память LPDDR5X и 3-нм кремниевые пластины, скорее всего, приведут к увеличению производственных затрат, что может отразиться на более высоких ценах для конечных пользователей.

Могут ли инвестиции Nvidia в производство в США смягчить эти риски? Хотя инвестиции в США имеют решающее значение для долгосрочной устойчивости, они еще не достигли производственных масштабов и вряд ли полностью компенсируют текущую зависимость от устоявшихся азиатских цепочек поставок для текущих и ближайших производственных потребностей.

Ji-woo Kim
Written by

Korean tech reporter covering AI policy, Naver Hyperclova, Kakao Brain, and the Korean AI ecosystem.

Worth sharing?

Get the best AI stories of the week in your inbox — no noise, no spam.

Originally reported by Tom's Hardware - AI