尖端芯片給AI裝上“超級引擎”|科技創(chuàng )新世界潮

2024-06-17 01:52:00 來(lái)源: 科技日報 作者: 劉霞


為適應AI應用,計算機芯片需進(jìn)行更多并行計算。 圖片來(lái)源:谷歌公司

科技日報記者 劉霞

美國開(kāi)放人工智能研究中心(OpenAI)首席執行官山姆·奧特曼等人認為,人工智能(AI)將從根本上改變世界經(jīng)濟,擁有強大的計算芯片供應能力至關(guān)重要。芯片是推動(dòng)AI行業(yè)發(fā)展的重要因素,其性能和運算能力直接影響著(zhù)AI技術(shù)的進(jìn)步和應用前景。

英國《自然》雜志網(wǎng)站在近日的報道中指出,工程師正競相開(kāi)發(fā)包括圖形處理單元(GPU)等在內的尖端芯片,以滿(mǎn)足未來(lái)AI的計算需求。

GPU加快機器學(xué)習運算速度

GPU是英偉達公司標志性的計算機芯片。傳統中央處理單元(CPU)按順序處理指令,而GPU可并行處理更多指令,因此可分布式訓練程序,從而大大加快機器學(xué)習的運算速度。

2022年,英偉達公司Hopper超級芯片在MLPerf上擊敗了包括圖像分類(lèi)和語(yǔ)音識別在內所有類(lèi)別的競爭對手。MLPerf是國際上最權威、最有影響力的AI基準測試之一,被譽(yù)為“AI界奧運會(huì )”。

今年3月,英偉達正式展示了性能更優(yōu)異的新一代AI芯片Blackwell。它擁有2080億個(gè)晶體管,是英偉達首個(gè)采用多芯片封裝設計的GPU。隨著(zhù)技術(shù)發(fā)展,GPU變得越來(lái)越大,如果不能更大,就把更多GPU組合在一起,變成更大的虛擬GPU。Blackwell就是在同一個(gè)芯片上集成了兩個(gè)GPU,新架構將通過(guò)芯片與芯片間的連接技術(shù),一步步構建出更大型AI超算集群。

如果要訓練一個(gè)擁有1.8萬(wàn)億個(gè)參數的GPT模型,需要8000塊Hopper芯片,耗能15兆瓦,歷時(shí)3個(gè)月。如果使用Blackwell芯片,只需2000塊,耗能4兆瓦,就能在同樣的時(shí)間內完成任務(wù)。

AI芯片市場(chǎng)持續增長(cháng),英偉達目前供應了其中80%以上的產(chǎn)品。2023年,該公司售出55萬(wàn)塊Hopper芯片。近日,該公司市值首次突破3萬(wàn)億美元,超越蘋(píng)果,僅次于微軟,成為全球市值第二高的公司。

多種芯片競相涌現

盡管GPU一直是AI革命的核心,但它們并非是唯一“主角”。隨著(zhù)AI應用的激增,AI芯片的種類(lèi)也在激增,現場(chǎng)可編程門(mén)陣列(FPGA)可謂“一枝獨秀”。

FPGA是一種在計算和數字電路領(lǐng)域廣泛應用的硬件設備。它以獨特的可編程性和靈活性,成為嵌入式系統、高性能計算處理等多種應用的理想選擇。

這就像搭建樂(lè )高積木,工程師可將FPGA電路一個(gè)接一個(gè)地構建到他們能想象的任何設計中,無(wú)論是洗衣機傳感器還是用于引導自動(dòng)駕駛汽車(chē)的AI。不過(guò),與擁有不可調節電路的AI芯片(如GPU)相比,FPGA運行速度相對更慢、效率更低。但FPGA對處理某些任務(wù)(如粒子對撞機產(chǎn)生的數據)很有用。英偉達加速計算集團產(chǎn)品營(yíng)銷(xiāo)總監戴維·薩爾瓦托指出,FPGA的易編程性也對原型設計很有幫助。

張量處理單元(TPU)則是谷歌公司專(zhuān)為神經(jīng)網(wǎng)絡(luò )機器學(xué)習而定制的芯片,旨在執行矩陣計算和張量操作。TPU作為谷歌深度學(xué)習框架TensorFlow的加速器于2016年首次推出,其設計目標是提供低功耗、高效能的矩陣運算,以滿(mǎn)足大規模機器學(xué)習和神經(jīng)網(wǎng)絡(luò )訓練的需求。TPU在性能與能效之間取得了良好平衡。它們的功耗相對較低,這對于大規模數據中心和在移動(dòng)設備上的應用至關(guān)重要。

此外,元宇宙平臺也在獨立開(kāi)發(fā)自己的芯片。谷歌、英特爾和高通成立了UXL基金會(huì ),用以開(kāi)發(fā)一套支持多種AI加速器芯片的軟件和工具,以此對抗英偉達的GPU。

當然,GPU等AI芯片的興起并不意味著(zhù)傳統CPU的終結,兩者互相取長(cháng)補短已成大勢所趨。例如,有一個(gè)版本的Blackwell芯片就讓GPU與CPU攜手;世界上最強大的超級計算機之一、位于美國田納西州橡樹(shù)嶺國家實(shí)驗室的“前沿”也依賴(lài)CPU和GPU的結合,來(lái)執行高性能計算。

考慮到過(guò)去十年芯片領(lǐng)域翻天覆地的變化,工程師們可能很難預測芯片的未來(lái)。將來(lái)可能會(huì )研制出使用光而非電子的光學(xué)芯片,或量子計算芯片,而進(jìn)一步提升芯片性能,將加速AI在科學(xué)領(lǐng)域的應用。

責任編輯: 左常睿