a一级爱做片免费观看欧美,久久国产一区二区,日本一二三区免费,久草视频手机在线观看

博客專欄

EEPW首頁 > 博客 > 誰能卡住英偉達的脖子?

誰能卡住英偉達的脖子?

發布人:晴朗雨 時間:2023-06-30 來源:工程師 發布文章

生成式AI的風口下,一些行業正在“悶聲發大財”。

從今年2月開始,中國臺灣廠商AVC和雙鴻(AURAS)股價一路飆升,在端午假期前的最后一個交易日,兩家公司的股價較4個月前均實現翻倍,分別收報249.5新臺幣(約合58.1元人民幣)及292.5新臺幣(約合68.1人民幣)。

如果對照芯片巨頭英偉達(NVEDIA)近期股價****,會發現三者之間存在著驚人的一致性——這家芯片巨頭公司同樣在這4個月內時間實現了股價翻倍。

這顯然不是巧合。

實際上,上述兩家位于中國臺灣地區的公司,或多或少與英偉達有關,確切地說是與生成式AI相關。AVC是全球最大散熱模組廠商,也是英偉達AI服務器系統DGX H100目前的風冷散熱系統供應商,雙鴻則是Supermicro(超微電腦)服務器散熱系統的供應商。

散熱,這個過去不被人們重點關注的產業,正由于AI帶來的數據量和計算量的爆發增長逐漸從幕后走向臺前,多位從業人士向虎嗅表達了這樣一個觀點:“今明兩年,AI行業中可能會出現算力被散熱‘卡脖子’的情況。”

6月15日,在AMD發布APU(加速處理器)MI 300系列后,AMD股價由于受到“缺少大客戶”的質疑下跌3.6%,但就在同一日,AVC與雙鴻的股價卻因AI芯片出現新玩家的利好應聲上漲5.8%和3.6%。

作為一個與計算機科學共同成長起來的產業,散熱模組廠商們經歷了多次電子信息革命,但當下AI的爆發,似乎才真正讓這個行業真實現了“翻身”。

AI的盡頭是散熱?

當電流通過電阻時,所消耗的電能會全部轉化為熱能,這種現象被稱為電流的熱效應,自計算機誕生以來,從業者們用盡辦法將電子器件的溫度控制在合理的范圍內。

當然,早期的計算機功耗較低,而且整機體積較大,因此不需要單獨設計系統級的散熱解決方案,通常做法就是在計算機背部放置個簡易的風扇,以將熱流導出。

1989年,英特爾發布了80486處理器,人類第一次實現了在微處理器中集成百萬級晶體管,這枚芯片的功耗也水漲船高,在芯片出廠時,英特爾為其配備了一組鋁制的散熱片,再配合機箱上的風扇完成整體散熱。

以今天的視角來看,這種方案還是很簡陋,但它勾勒出了散熱設計最底層的原理:先導熱,再散熱。簡單地來說,導熱就是將熱量在介質中傳送,散熱就是讓熱量盡可能快地從介質向外界散發。

傳統的服務器散熱方案與計算機散熱原理大致相同,區別在于服務器所使用的算力芯片由于能耗較高,往往將芯片級散熱系統作為重點,通常來說就是將芯片熱量通過熱管、均熱片等傳導到多褶結構的散熱鰭片上,再通過風扇進行主動散熱。

傳統服務器散熱器,與臺式機基本一致。圖片來源:中關村在線

不過,這種風冷式散熱方案在當前AI服務器上的表現已經明顯力不從心。

原因在于高性能AI芯片的功耗在隨著算力同步大幅提升。10年前市面上能買到的最頂級的數據中心GPU是英偉達K40,其熱設計功耗(TDP)為235W,2020年英偉達發布A100時,熱設計功耗接近400W,到了最新的H100芯片,熱設計功耗直接飆升到700W。

國內散熱技術廠商廣州力及熱管理科技(NeoGene Tech)創始人陳振賢向虎嗅表示,到了明年,單顆高性能AI芯片的熱設計功耗將會突破1000W。

那么風冷式散熱對應的散熱極限是多少?國金證券研究所的一份報告指出,服務器2U空間下,250W大約是風冷的極限,4U以上空間風冷可以解到400W-600W。

這里需要普及下“U”的概念,這是美國電子工業協會制訂的標準化尺寸,1U服務器的寬度為48.26厘米(19英寸),高度為4.445厘米(1.75英寸)。通常情況下,標準服務器機柜的高度為42U,但這并不意味可以容納42枚1U服務器,因為過大的密度會增加散熱負擔。

而如果使用英偉達H100芯片的話,在使用風冷散熱模組方案的情況下,就需要用到4U的機柜。

因此,為了提高單一機柜的功率密度,數據中心近些年開始普遍使用液冷方案。其大致可以分為兩種技術路徑:冷板式(Cold Plate)與浸沒式(Immersion),前者是通過冷板將發熱器件的熱量間接傳遞給封閉在循環管路中的冷卻液體,后者則直接將發熱器件以及電路板整體直接置于液體中。與空氣介質相比,液體的導熱率更高、比熱容更大、吸熱能力也更強。

1U 2x雙路節點服務器的冷板式散熱方案,圖片來源:企業存儲技術

另外在運營成本上,液冷散熱也有較大的優勢。傳統風冷散熱將服務器芯片熱量吹到數據中心機房內,這要求機房空調溫度必須大幅降低,一位業內人士向虎嗅透露,臺積電的數據中心溫度常年維持在零度左右。而液冷散熱模組的設備雖然較為昂貴,但大多屬于一次性成本,后續的能耗成本可以大幅降低。

但這并不意味著目前液冷散熱技術就是一種萬全之策,陳振賢指出,在現有要求降低PUE(指數據中心消耗的所有能源與IT負載消耗的能源的比值)的限制下,既有的冷板式及浸沒式液冷技術也都紛紛面臨著解熱極限的問題。

中科創星董事總經理盧小保也向虎嗅表示,目前無論是風冷還是液冷散熱方案,都進入明顯的發展瓶頸期,未來熱管理相關技術可能會成為AI芯片性能釋放的決定性限制因素。

破局點在哪里?

盡管業內目前還沒有出現公認的“最佳解決方案”,但市場對于AI服務器的需求不會因此陷入停滯。

第三方研究機構TrendForce發布的預測指出,2023年AI服務器(包含GPU、FPGA、ASIC等主芯片)出貨量將接近120萬臺,同比去年增長38.4%,而AI芯片今年出貨量將增長46%。

有業內人士向虎嗅表示,在今年的AI服務器市場中,英偉達A100與A800的出貨量將可能會占據80%,而隨著下半年數據中心陸續導入熱設計功耗高達700W的H100芯片后,行業內既有的散熱技術可能都需要進行一次“推倒重建”。

盧小保認為,傳統的風冷式散熱方案并不是完全沒有開發空間,但前提是導熱器件必須進行升級換代,比如引入環路熱管技術。

目前芯片級風冷散熱模組中,導熱器件主要以熱管為主,它的主體是一根封閉、中空的金屬管,內部有少量工作介質(主要是純水)的毛細結構,運行時依靠介質蒸發吸收芯片熱量,再由風扇將熱量吹走。

熱管工作原理,圖片來源:antpedia

而環路熱管在保留上述特性的同時,導熱能力增加幾倍,而且導熱距離更大,可以傳遞到一米以外甚至理論上可以傳導到十幾米以外,這是該技術在衛星上已經實現的效果。

“如果環路熱管能做到數米遠,就意味著可以直接將服務器芯片的熱量導出到數據中心外部,連機房溫度的問題都解決了”,盧小保指出。

不過作為一種航天工程的衍生技術,要在地面環境下落地應用,技術難度極高,雖然學術界和工業界都有很多團隊在從事這項技術的研發,但真正具備落地商用能力的極少。

同樣,液冷散熱方案也具備升級迭代的潛力。比如結合將冷板與浸沒式散熱的技術特點相結合,在傳統的1U或2U機柜槽中接入冷板,再接入浸沒散熱用的單向冷卻液,以實現雙重冷卻循環。

據外媒Electronics Weekly報道,前不久美國能源部(DOE)立項了一個名為COOLERCHIPS的研究計劃,?助英偉達5百萬美元開發此項混合液冷技術,利用兩相冷卻液作為冷板的內循環,非導電冷卻液體則是被直接注入服務器中做循環。

陳振賢表示,NeoGene Tech亦自主研發了一種更先進的具有三重液冷循環之服務器裝置技術,將具備更高功率芯片的散熱及散熱能力,而且無需價格昂貴的兩相冷卻液作為循環,在運營成本上將更優。

此外,NeoGene Tech還基于冷板式液冷技術開發了一種被稱為牛勁冷泵(NeoGene Liquid Cooler)液冷散熱器產品,整體高度已經壓縮至24.5mm,可以滿足數據中心1U服務器機柜的超高密度布建需求。其最大特點是可通過內部三維蒸氣腔的功能設計,根據芯片功率及功率密度做出解熱及散熱的功能調整。

陳振賢指出,1U的牛勁冷泵液冷散熱器已經可以服務TDP超過1000W的高算力芯片。

1U規格的牛勁冷泵液冷散熱產品,圖片來源:NeoGene Tech

以上提到的技術方案,都是基于過去散熱模組的迭代,那么是否存在一種技術,可以直接在芯片上做文章?

在今年3月,NeoGene Tech曾公開了一個針對高功率芯片封裝的散熱方案:直接將裸芯片和牛勁冷泵液冷循環系統封裝在一起工作。

陳振賢向虎嗅表示,“在這個技術路徑下,散熱模組不再是芯片外部的獨立器件,它本身就是IC元件的一部分,可達到即插即用(Plug&Play)的目的”。

這項散熱封裝技術若再搭配具有三重液冷循環之服務器裝置技術,能夠為數據中心省去所有的二級、三級散熱系統,只需將自我浸沒式服務器插入機柜內, 再接入水管及非導電冷卻液管就可以直接使用。當然,該方案對先進封裝工藝有一定的要求。

另一種直接在芯片上做散熱的技術,也與封裝工藝緊密結合,那就是Chiplet。

簡單地來說,就是將一個單顆SoC芯片的功能拆分成眾多小芯片,然后運用先進封裝技術重組成一個龐大復雜的系統。從芯片散熱的角度來說,Chiplet不會使芯片整體功率降低,但在拆分后的表面積會增加,也就是說同等熱設計功率下,單位面積內熱流強度會降低。

從這里也可以看出一個趨勢,那就是在AI芯片算力與能耗大幅提升的背景下,芯片散熱問題,或者說熱管理問題,已經不再是一個獨立的學科,而是更加趨近于系統性工程,未來AI芯片的天花板,或許真的取決于散熱技術的發展水平。


*博客內容為網友個人發布,僅代表博主個人觀點,如有侵權請聯系工作人員刪除。



關鍵詞: 英偉達 AI

相關推薦

技術專區

關閉