北京時(shí)間 2025 年 6 月 28 日,路透社報(bào)道,OpenAI 已開始租用谷歌的 TPU 為其 ChatGPT 及其他 AI 產(chǎn)品提供算力支持。此舉標(biāo)志著作為英偉達(dá) GPU 長(zhǎng)期以來(lái)的最大采購(gòu)商之一的 OpenAI,也開始在其 AI 大模型運(yùn)算中實(shí)質(zhì)性地大規(guī)模使用非英偉達(dá) GPU 算力。

早在去年 6 月,OpenAI 就傳出正在積極從谷歌 TPU 團(tuán)隊(duì)招募頂尖研發(fā)人才,自研 AI 專用芯片。而除OpenAI 外,蘋果、Anthropic、Safe Superintelligence、Cohere 等公司也一直租用谷歌云的 TPU 用于 AI 大模型訓(xùn)練及推理。北美 AI 巨頭公司們的戰(zhàn)略轉(zhuǎn)向凸顯了 AI 行業(yè)更廣泛的變革趨勢(shì):領(lǐng)先的大模型開發(fā)商都在積極探索英偉達(dá) GPU 之外的替代方案,尋求基礎(chǔ)設(shè)施多元化,擁抱以 TPU 為代表的 AI 專用芯片的新架構(gòu)方向。

OpenAI 轉(zhuǎn)向谷歌 TPU 的三重動(dòng)因

OpenAI 是當(dāng)下 AI 大模型浪潮的引爆者和代表者。長(zhǎng)期以來(lái),OpenAI 使用英偉達(dá) GPU 進(jìn)行 ChatGPT 模型訓(xùn)練(即通過(guò)大規(guī)模數(shù)據(jù)集和復(fù)雜的神經(jīng)網(wǎng)絡(luò)架構(gòu),訓(xùn)練出一個(gè)具備強(qiáng)大學(xué)習(xí)和推理能力的深度神經(jīng)網(wǎng)絡(luò)模型)和推理工作負(fù)載(即讓已訓(xùn)練好的模型可以依據(jù)用戶需求實(shí)時(shí)生成預(yù)測(cè)),OpenAI 既是英偉達(dá) GPU 最早被用于 AI 計(jì)算場(chǎng)景的天使客戶之一,也是英偉達(dá)GPU的長(zhǎng)期最大采購(gòu)商之一。

然而,隨著大模型計(jì)算需求和復(fù)雜度的指數(shù)級(jí)增長(zhǎng),傳統(tǒng) GPU 架構(gòu)芯片在用于大模型訓(xùn)練時(shí)的成本高、算力利用率低、能耗大的局限日益凸顯。不斷上漲的 GPU 計(jì)算成本和供應(yīng)限制,促使 OpenAI 探索替代性 AI 芯片方案。通過(guò)接入谷歌云(Google Cloud)對(duì)外開放的TPU資源(早年僅供谷歌內(nèi)部使用),OpenAI 得以利用專為張量計(jì)算優(yōu)化的專用芯片,有望降低單次模型計(jì)算成本,并獲得獨(dú)特的性能表現(xiàn)。

OpenAI 的這一決策源于三方面因素的共同作用:

·  成本效益: TPU 專為深度學(xué)習(xí)的核心——大規(guī)模矩陣與張量運(yùn)算而打造。相較于通用 GPU,其單位功耗吞吐量高,片上內(nèi)存層級(jí)設(shè)計(jì)激進(jìn),通常能為訓(xùn)練和推理實(shí)現(xiàn)更低的總體成本。

·  供應(yīng)鏈韌性: 算力供應(yīng)商多元化可降低風(fēng)險(xiǎn),避免因英偉達(dá)面臨生產(chǎn)壓力、分配延遲、其他行業(yè)需求激增而導(dǎo)致的瓶頸,確保其研究實(shí)驗(yàn)和大規(guī)模部署所需算力可以不間斷。

·  軟件生態(tài)集成:谷歌 TPU 成熟的全棧軟件生態(tài)——包括與 XLA 編譯器緊密耦合的 TensorFlow 框架、TPU 專用運(yùn)行時(shí)、性能分析工具以及谷歌云上的托管服務(wù),可以極大簡(jiǎn)化大型 AI 應(yīng)用的模型開發(fā)、調(diào)優(yōu)與部署流程,顯著降低工程負(fù)擔(dān),縮短產(chǎn)品上線周期。

TPU 芯片:為 AI/ML 而生的架構(gòu)

GPU 最初設(shè)計(jì)用于圖形處理,尤其是實(shí)時(shí)渲染和圖像處理,因此對(duì)其中體面結(jié)構(gòu)的矩陣和向量運(yùn)算做了專門優(yōu)化,后來(lái)逐漸發(fā)展成為通用計(jì)算設(shè)備(GPGPU)。GPU 具有大量結(jié)構(gòu)較為簡(jiǎn)單的并行處理單元,適合處理高度并行的任務(wù),如圖形渲染和科學(xué)計(jì)算,因此被廣泛應(yīng)用于計(jì)算機(jī)圖形學(xué)、游戲開發(fā)、視頻編碼/解碼、深度學(xué)習(xí)訓(xùn)練和推理。

TPU 是谷歌專為加速機(jī)器學(xué)習(xí)和深度學(xué)習(xí)任務(wù)而設(shè)計(jì)的專用芯片,特別是針對(duì)深度學(xué)習(xí)模型的訓(xùn)練和推理。TPU 針對(duì)張量運(yùn)算進(jìn)行了高度優(yōu)化,單個(gè)的脈動(dòng)陣列架構(gòu)吞吐量和處理效率相較 GPU 有了更大提升,特別適合于處理矩陣乘法等常見于神經(jīng)網(wǎng)絡(luò)的操作,主要用于機(jī)器學(xué)習(xí)和深度學(xué)習(xí)模型的訓(xùn)練和推理,特別是使用 TensorFlow 框架的任務(wù)。

相較于傳統(tǒng) GPU 架構(gòu),TPU 設(shè)計(jì)具有多項(xiàng)優(yōu)勢(shì):

·  緊密集成的內(nèi)存與計(jì)算單元:每個(gè) TPU 核心集成了大容量、高帶寬的片上內(nèi)存,并與矩陣乘法單元緊密耦合,顯著降低了數(shù)據(jù)移動(dòng)延遲和功耗。

·  高效推理:這種緊密集成使得 TPU 能在更低能耗下實(shí)現(xiàn)持續(xù)的高吞吐量推理,這對(duì)于日處理數(shù)百萬(wàn)請(qǐng)求的推理工作負(fù)載至關(guān)重要。

·  優(yōu)化的集群互聯(lián):TPU 集群配備了精簡(jiǎn)高效的互聯(lián)結(jié)構(gòu),專為分布式模型訓(xùn)練固有的集體通信模式優(yōu)化,相較于傳統(tǒng)的 GPU 加速集群,可帶來(lái)更優(yōu)的擴(kuò)展性和資源利用效率。

AI 算力硬件競(jìng)爭(zhēng)的關(guān)鍵轉(zhuǎn)折

OpenAI 采用谷歌 TPU,打破了英偉達(dá) GPU 在 AI 算力基礎(chǔ)設(shè)施領(lǐng)域霸主地位不可撼動(dòng)的觀念。長(zhǎng)期占據(jù)主導(dǎo)地位的英偉達(dá),如今面臨著來(lái)自作為主要終端用戶的 AI 大模型提供商們尋求算力利用率、成本控制與供應(yīng)靈活性替代方案的真實(shí)壓力。谷歌云則贏得了 OpenAI 這一標(biāo)桿客戶,進(jìn)一步印證了其觀點(diǎn):在特定 AI 工作負(fù)載上,TPU 性能可媲美甚至超越 GPU。

與此同時(shí),OpenAI 的這一舉措是 AI 硬件行業(yè)多元化浪潮的一部分,已有越來(lái)越多的世界頂尖科技公司在積極研發(fā)自己的 TPU 或類 TPU 架構(gòu)的 AI 專用芯片,并已得到了眾多領(lǐng)先 AI 大模型企業(yè)的廣泛采用:

·  早在 2019 年,英特爾就收購(gòu)了來(lái)自以色列的 AI 芯片制造商 Habana Labs,并在2024年 4 月推出了專攻深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)推理的類 TPU 芯片 Gaudi 3;預(yù)計(jì)2025 年初,IBM Cloud 將率先部署英特爾 Gaudi 3 AI 加速器;

·  2023 年 7 月的 xAI 會(huì)議上,特斯拉以及 X(即 Twitter)的 CEO 馬斯克公開宣布了特斯拉正在自研芯片且一定不會(huì)將其稱為 GPU,暗示著特斯拉可能正在開發(fā)一種與傳統(tǒng) GPU 不同的芯片架構(gòu),以滿足特斯拉的需求;

·  2023 年 11 月,微軟在其全球技術(shù)大會(huì) Ignite 上宣布推出專為 Azure 云服務(wù)和 AI 工作負(fù)載設(shè)計(jì)的 ASIC 芯片 Maia 100,預(yù)計(jì) 2026 年正式發(fā)布;

·  2023 年11月底,AWS 在其“AWS re:Invent 2023”大會(huì)發(fā)布了為生成式 AI 和機(jī)器學(xué)習(xí)訓(xùn)練設(shè)計(jì)的云端 AI 算力芯片 Trainium 2;2024 年底,AWS 與 Anthropic 官宣共同打造名為 Project Rainier 的 EC2 UltraCluster,將使用數(shù)十萬(wàn)片 Trainium2 芯片;

·  2024 年 7 月 30 日,蘋果公司發(fā)布了研究論文表示,Apple使用了谷歌的2048 片 TPUv5p 芯片及 8192 片 TPUv4 芯片——而非英偉達(dá)的 GPU 芯片,來(lái)訓(xùn)練其人工智能系統(tǒng)“蘋果智能”(Apple Intelligence)中的 AI 模型 Apple Foundation Model;

······

北美人工智能和半導(dǎo)體圈正在發(fā)生的AI算力硬件的轉(zhuǎn)向,AI芯片市場(chǎng)也進(jìn)入了更具競(jìng)爭(zhēng)性的新階段。

中昊芯英國(guó)產(chǎn)全自研 TPU AI芯片公司

中昊芯英作為國(guó)內(nèi)唯一一家掌握 TPU 架構(gòu)AI 專用芯片核心技術(shù)并實(shí)現(xiàn)全自研 TPU 芯片量產(chǎn)的公司,核心創(chuàng)始團(tuán)隊(duì)組建于 2018 年,其創(chuàng)始人及 CEO 楊龔軼凡曾作為谷歌 TPU 芯片核心研發(fā)者,深度參與過(guò) TPU v2/3/4 的設(shè)計(jì)與研發(fā)工作。繼 Apple 之后,OpenAI 對(duì) TPU 的選擇,再一次有力驗(yàn)證了當(dāng)下中昊芯英所堅(jiān)持走的TPU技術(shù)路線。

TPU 為 AI 大模型而生的天然優(yōu)勢(shì)架構(gòu),使其在面向 AI 計(jì)算場(chǎng)景時(shí),在同等生產(chǎn)制程下相較于 GPU 可以擁有 3-5 倍的性能提升。以中昊芯英歷時(shí)近五年全自研的國(guó)內(nèi)首枚已量產(chǎn) TPU AI 芯片“剎那®”為例,“剎那®”在處理大規(guī)模 AI 模型運(yùn)算時(shí)與英偉達(dá)當(dāng)代的先進(jìn)芯片相比,計(jì)算性能可以超越其近 1.5 倍,在完成相同訓(xùn)練任務(wù)量時(shí)的能耗降低 30%,將價(jià)格、算力和能耗綜合測(cè)算,“剎那®”的單位算力成本僅為其 42%。

OpenAI 擁抱谷歌TPU也許并不意味著英偉達(dá) GPU 時(shí)代的終結(jié),但它清晰地宣告了以 TPU 主導(dǎo)的AI專用算力基礎(chǔ)設(shè)施的時(shí)代已然到來(lái)。成本壓力、供應(yīng)鏈波動(dòng)以及模型規(guī)模的持續(xù)膨脹,必將使得效率因素比傳統(tǒng)供應(yīng)商優(yōu)勢(shì)更重要。在這種環(huán)境下,專用張量處理器——無(wú)論是來(lái)自谷歌、AWS 這樣的科技巨頭,還是中昊芯英、Cerebras、Groq 這樣的新興企業(yè)——將塑造大規(guī)模 AI 的下一篇章。