2025年10月3日,NVIDIA總裁黃仁勳與富士通總裁時田隆仁,在東京的帕雷斯酒店面對100多名記者,宣佈NVIDIA與富士通進行戰略合作。這一新聞迅速佔滿了翌日東京各大媒體的頭版。
NVIDIA總裁黃仁勳與富士通總裁時田隆仁宣佈戰略合作(圖片出自富士通發佈的記者會視頻)
NVIDIA是引領人工智慧(AI)浪潮的弄潮兒。NVIDIA在全球AI計算和數據中心GPU市場佔據絕對主導地位,份額遠超90%;在PC獨立顯卡市場,它也佔據領先地位,份額約80%-85%。
富士通是日本國內有名的IT企業,在日本國內根基深厚、備受信賴。但在AI領域的全球知名度並非很高,其雲端計算領域的城堡,在全球雲巨頭的圍攻下,逐漸收縮。
那麼,為什麼NVIDIA會選擇富士通作為戰略合作夥伴呢?
富士通的新聞通報這樣寫到:
本公司將與NVIDIA擴大戰略合作,旨在構建一個整合了AI 智慧體的全棧AI基礎設施,以便在維持企業在AI應用中的自主性的同時,助力企業通過AI提升競爭力。在本次合作中,雙方將共同開發並提供面向醫療保健、製造、機器人等特定領域的行業AI智慧體平台,以及通過「NVIDIANVLink Fusion」技術,共同開發將「富士通-MONAKA」CPU系列與NVIDIAGPU無縫整合的AI計算基礎設施。通過整合AI智慧體平台和AI計算基礎設施,將實現一個由持續學習和進化的AI智慧體驅動的全棧AI基礎設施,從而加速AI產業革命。此舉將克服傳統通用計算系統的侷限,使構建一個跨行業、能自主進化的全棧AI基礎設施成為可能。本公司通過這一舉措,首先將推動日本的產業變革,讓AI從日本普及至社會的各個角落,引領所有產業提升競爭力,推動可持續社會的實現。
這裡有兩個概念需要說明。
首先,什麼是「AI智慧體(AI Agent)」?AI智慧體不再是簡單的聊天機器人或執行單一任務的工具。它指的是一個能夠感知環境、進行推理、制定計畫並自主執行複雜任務的AI系統。譬如,為你規劃一個周末出行的省錢的旅行計畫,製作一份你要求的PPT文本,等等。
其次,什麼是「全棧AI基礎設施」?「全棧」意味著提供從底層到頂層的完整的、一體化的技術堆棧。打個不恰當的比方,就像蓋房子,你不能只有磚頭(晶片),還需要水泥(軟體)、圖紙(框架)、管道(網路)和施工隊(系統)。
對於AI來說,「全棧AI基礎設施」就是為AI的誕生和運行提供一切所需的技術層。主要包括:計算硬體層,硬體系統與網路層,軟體與框架層,AI智慧體框架,以及模型與服務層。
在計算硬體層,NVIDIA擁有強大的AI計算晶片,主要是GPU(如NVIDIA的H100/H200)和專用的AI加速卡。在硬體系統與網路層,NVIDIA有高速網路超連結技術NVLink。在軟體與框架層,NVIDIA的CUDA、cuDNN提供了底層驅動與計算庫。全球AI工程師都在使用這些框架與庫文件,形成了一個龐大的生態系統。
因此,「AI智慧體的全棧AI基礎設施」指的是一套完整的、從晶片到系統再到軟體的技術體系,其唯一目的就是為大規模開發、部署和運行複雜的AI智慧體提供所需的全部能力和環境。如果將AI智慧體比作一個自動駕駛計程車車隊,那麼,全棧AI基礎設施就是為這個車隊服務的整個城市交通生態系統。
一項簡單的AI應用(如文本生成)可能只需要呼叫一個API。但未來,真正變革行業的將是能夠自主處理複雜工作流的AI智慧體。運行這些智慧體需要極其龐大、複雜且協同優化的技術棧,任何單一公司都難以獨立構建。
NVIDIA正是看準了這一趨勢,其戰略目標就是成為這個「未來AI智慧體世界」的「國家電網」和「道路交通部」——提供從發電(GPU算力)到輸配電(網路/系統)再到用電標準(軟體/生態)的全棧基礎設施。它與富士通的合作,正是為了在全球範圍內鋪設和推廣這套基礎設施。
那麼,被NVIDIA相中的富士通有什麼優勢呢?
首先,富士通是ARM陣營的「隱形冠軍」。富士通雖然總體CPU市場份額小,但在高性能ARM架構CPU領域是世界級的領導者。其設計的「A64FX」CPU被用於曾經是全球最快的超級電腦「富岳」上,證明ARM架構在極致性能上的潛力。富士通的ARM CPU已經發展到第二代以省電為特徵的MONAKA,可謂是同行中最先進的技術。
其次,富士通擁有「定製化能力」與「垂直整合」的獨特價值。富士通擁有強大的ASIC(專用積體電路)和CPU設計團隊。他們不是簡單地使用ARM的公版設計,而是能進行深度定製,針對高性能計算、AI等特定工作負載進行優化。
富士通不僅僅可以設計CPU,它是一家完整的IT解決方案提供商。從硬體(伺服器、存儲)、網路(5G設備)到軟體和服務都能提供。
我們再來看看GPU與CPU的關係。
GPU是AI系統強大的「引擎」,但要讓這台引擎在複雜的AI任務中發揮全部威力,需要一個與它完美協同的「刻度盤和傳動系統統」。這個角色,正是ARM架構CPU所要扮演的。NVIDIA的GPU固然強大,但正是通過與ARM架構CPU的結合,它才能從一家「頂級晶片供應商」蛻變為「未來計算平台的定義者」。
在傳統的x86伺服器中,CPU和GPU是獨立的兩個部件,主要通過PCIe匯流排連接。這就像兩個頂尖的專家被關在不同的房間裏,只能通過一個小窗口傳遞紙條(數據)來協作,效率低下。其瓶頸在於,當GPU進行大規模並行計算時,需要不斷地從CPU和主記憶體中獲取數據。PCIe通道的頻寬和延遲成為了巨大的瓶頸,GPU常常需要「等待」數據,其強大的算力被閒置。
ARM架構的革新之處在於超高速互聯。它們採用NVLink-C2C等先進互聯技術,將CPU和GPU緊密地連接在一起。這相當於讓兩位專家坐進了同一個「作戰指揮室」,可以即時、無障礙地交流。CPU和GPU可以共享一個巨大的、統一的主記憶體空間。這意味著它們可以直接訪問同一份數據,無需在兩者之間進行緩慢的複製和搬運。
GPU和CPU的結合,使得數據流動的延遲極大降低,頻寬極大提升,GPU的算力得以被100%地被釋放出來,甚至120%地被增強。這對於需要處理海量不規則數據(如推薦系統、圖神經網路)的AI智慧體至關重要。
還有一個重要的因素,是被稱為計算領域「新貨幣」的「能效比」。
在AI時代,算力的最大限制不再是電晶體數量,而是電力。數據中心的電力和冷卻成本已經成為天文數字。
x86 CPU為了保持向下兼容性,繼承了大量的複雜指令集和架構,這導致其在執行特定任務時,功耗較高。ARM採用精簡指令集,架構更簡單、更模組化。這使得ARM CPU可以根據特定工作負載(如AI、HPC)進行深度定製和優化,實現極高的「性能功耗比」。
MONAKA是富士通繼非常成功的A64FX(曾驅動「富岳」超級電腦登頂世界第一)之後的新一代ARM架構伺服器CPU,它有極致的高性能與高能效比。MONAKA的目標是提供比競爭對手高2倍的能效。MONAKA從一開始就設計為與NVIDIAGPU通過NVLink-C2C技術進行高速互聯。這意味著CPU和GPU之間的數據交換延遲極低、數據頻寬極高,能極大緩解在傳統x86架構中常見的「數據搬運瓶頸」,從而充分發揮GPU的AI算力。因此,MONAKA不是要做一個在所有場景下都最強的通用CPU,而是要做一個在特定HPC和AI場景下,能效最高、與NVIDIAGPU協作最無縫的「特長生」。
當然,富士通不僅有先進的ARM架構CPU,富士通還提供AI應用服務,其AI解決方案涵蓋了製造業、零售業、與醫療領域。
NVIDIA通過與富士通的合作,可以打造出從晶片到系統、再到行業解決方案的完整「交鑰匙」方案,而不僅僅是賣GPU晶片。
過去的NVIDIA就像一家世界頂級的發動機(GPU)製造商,它的發動機性能無敵,但需要安裝在別人家的車架(x86伺服器)上。現在的NVIDIA,則正在成為一家頂級高性能跑車的整車製造商。通過優化刻度盤、傳動系統統(ARM CPU),並將其與自己的無敵發動機(GPU) 完美整合,打造出一台在賽道上所向披靡的完整賽車。
NVIDIA與富士通的戰略合作,站在NVIDIA的立場,可以幫助NVIDIA實現從「發動機供應商」到「整車製造商」的戰略轉型。站在富士通的立場,可以得到最先進的AI算力,有NVIDIA的全球AI開發生態系統的加持,富士通的AI解決方案將如虎添翼。
在越來越競爭激烈的AI全球市場,NVIDIA與富士通的戰略合作或許會成為一個互補、雙贏的範例。
在該戰略合作中,NVIDIA提供全球最強的GPU加速計算能力和近乎壟斷的CUDA軟體生態。富士通提供世界級的高性能ARM CPU設計、強大的伺服器製造能力、深厚的5G網路技術,以及在日本和特定行業(如製造、金融)的市場渠道。
雙方的能力高度互補,幾乎沒有重疊,是純粹的「1+1>2」增益。
供稿 / 戴維
編輯修改 / JST客觀日本編輯部
注)有關NVIDIA市場份額的數據可參閱Jon Peddie Research,IDC,Gartner等市場調查報告。

