ニュース

NVIDIA、エージェント型AI向け「Vera CPU」を発表 台湾メーカーを供給体制に組み込む

Posted on 2026/03/17



米NVIDIAは、サンノゼで開催したGTCにおいて、エージェント型AI(Agentic AI)向けに最適化した新型プロセッサー「Vera CPU」を発表するとともに、同プロセッサーを搭載したラックシステムも投入した。パートナー企業には、ASUS、Compal、Foxconn、GIGABYTE、Pegatron、QCT、Wistron、WiWynnなど複数の台湾メーカーが名を連ねており、次世代AIインフラにおける台湾サプライチェーンの存在感が一段と高まっていることを示した。
NVIDIAのジェンスン・フアンCEOは基調講演で、AI技術の進化に伴い、CPUがシステム内で果たす役割も変化しつつあると述べた。これまでCPUはAIモデルの動作を支える補助的な役割を担うことが多かったが、今後はモデル推論や制御、さらにはシステム全体の協調動作を担う中核的な存在へと位置付けが変わるという。Vera CPUは、こうした背景のもとで投入されたものであり、エージェント型AIや強化学習時代の新たな需要を見据えた製品となる。
NVIDIAによると、Vera CPUは世界で初めてエージェント型AI向けに設計されたCPUであり、従来型CPUと比べて効率は最大2倍、演算性能は50%向上するという。AIエージェントが自律的に判断し、複数のタスクを連続的に実行する用途を想定し、より高速かつ大規模なAIシステムの展開を支えることを狙う。
NVIDIAは同時に、256基の液冷式Vera CPUを統合した「Vera CPU rack」も発表した。大規模データセンターへの導入を想定した構成で、同社によればVera CPUはすでに量産段階に入っており、2026年後半からパートナー各社を通じて順次提供を開始する予定だ。
今回の発表で注目されるのは、新製品そのものだけではなく、それを支える供給体制にもある。パートナー企業の顔ぶれを見ると、台湾のODMおよびサーバーメーカーが大規模に参画していることが分かる。これまでAIサーバー市場の競争は主としてGPU実装能力を軸に展開してきたが、システムの複雑化が進むなかで、CPU、液冷、ネットワーク、ストレージを含むシステム全体の最適化が、新たな競争力の源泉となりつつある。NVIDIAがラックレベルでの製品展開を進めるなか、台湾メーカーも単なる受託製造の立場から、AIデータセンター構築を支える重要な実装パートナーへと役割を広げている。
なかでもFoxconn、QCT、Wistron、WiWynnは、AIサーバーやクラウドシステム統合分野でこれまでに豊富な実績を持つ。さらにASUS、GIGABYTE、Pegatron、Compalなども名を連ねており、NVIDIA陣営における台湾ハードウェア供給網の厚みと完成度を改めて示した格好だ。台湾メーカーにとって、今回の採用は単一の新製品に関する受注機会にとどまらず、AIインフラ競争が半導体単体からシステム競争へと移行する中で、その役割が一段と高まっていることを意味する。
Vera CPUに加え、NVIDIAは新世代のストレージアーキテクチャ「BlueField-4 STX」も発表した。高速ストレージおよびデータ処理インフラの導入を加速することを目的とし、企業、クラウド事業者、AIサービスプロバイダーを主な対象とする。パートナーにはAIC、Supermicro、QCTが含まれており、ここでも台湾企業が重要な製造・統合パートナーとして位置付けられている。
またNVIDIAは、相互に連携して稼働する5種類のAIラックシステムも発表した。GPUアクセラレーション向けの「Vera Rubin NVL72」、推論向けの「NVIDIA Groq 3 LPX」、CPU計算向けの「Vera CPU rack」、ストレージおよびデータ処理向けの「BlueField-4 STX」、さらに次世代AI Ethernetスイッチ「Spectrum-6 SPX」である。
一連の発表からは、NVIDIAの戦略が単なる半導体サプライヤーの枠を超え、AIデータセンター全体アーキテクチャの主導権確立へと広がっていることがうかがえる。AIインフラ競争の軸足が単一チップの性能からシステム統合力へと移るなかで、台湾サプライチェーンの戦略的重要性も一段と高まっている。NVIDIAにとって台湾メーカーは、もはや単なる生産委託先ではなく、次世代AIプラットフォームの実装を支える不可欠な存在となっている。



Back