全球關(guān)注:集邦咨詢(xún):預估2023年AI服務(wù)器出貨量年增率可達15.4%
(資料圖片)
TrendForce集邦咨詢(xún)表示,展望2023年,Microsoft、Meta、Baidu與ByteDance相繼推出基于生成式AI衍生的產(chǎn)品服務(wù)而積極加單,預估今年AI服務(wù)器出貨量年增率可望達15.4%,2023~2027年AI服務(wù)器出貨量年復合成長(cháng)率約12.2%。
目前NVIDIA所定義的DL/ML型AI服務(wù)器平均每臺均搭載4張或8張高端顯卡,搭配兩顆主流型號的x86服務(wù)器CPU,而主要拉貨力道來(lái)自于美系云端業(yè)者Google、AWS、Meta與Microsoft。據TrendForce集邦咨詢(xún)統計,2022年高端搭載GPGPU的服務(wù)器出貨量年增約9%,其中近80%的出貨量均集中在中、美系八大云端業(yè)者。
AI服務(wù)器出貨動(dòng)能強勁帶動(dòng)HBM(high bandwidth memory)需求提升,據TrendForce集邦咨詢(xún)研究顯示,2022年三大原廠(chǎng)HBM市占率分別為SK海力士(SK hynix)50%、三星(Samsung)約40%、美光(Micron)約10%。此外,高階深度學(xué)習AI GPU的規格也刺激HBM產(chǎn)品更迭,2023下半年伴隨NVIDIA H100與AMD MI300的搭載,三大原廠(chǎng)也已規劃相對應規格HBM3的量產(chǎn)。因此,在今年將有更多客戶(hù)導入HBM3的預期下,SK海力士作為目前唯一量產(chǎn)新世代HBM3產(chǎn)品的供應商,其整體HBM市占率可望藉此提升至53%,而三星、美光則預計陸續在今年底至明年初量產(chǎn),HBM市占率分別為38%及9%。
根據TrendForce集邦咨詢(xún)調查,AI服務(wù)器可望帶動(dòng)存儲器需求成長(cháng),以現階段而言,Server DRAM普遍配置約為500~600GB左右,而AI服務(wù)器在單條模組上則多采64~128GB,平均容量可達1.2~1.7TB之間。以Enterprise SSD而言,由于A(yíng)I服務(wù)器追求的速度更高,其要求優(yōu)先滿(mǎn)足DRAM或HBM需求,在SSD的容量提升上則呈現非必要擴大容量的態(tài)勢,但在傳輸接口上,則會(huì )為了高速運算的需求而優(yōu)先采用PCIe 5.0。而相較于一般服務(wù)器而言,AI服務(wù)器多增加GPGPU的使用,因此以NVIDIA A100 80GB配置4或8張計算,HBM用量約為320~640GB。未來(lái)在A(yíng)I模型逐漸復雜化的趨勢下,將刺激更多的存儲器用量,并同步帶動(dòng)Server DRAM、SSD以及HBM的需求成長(cháng)。
關(guān)鍵詞: