新聞 : AI 伺服器需求帶動, HBM 供應龍頭 SK 海力士今年市占率可逾五成

AI 伺服器出貨動能強勁帶動 HBM(high bandwidth memory)需求提升,TrendForce 研究顯示,2022 年三大原廠 HBM 市占率分別為 SK 海力士(SK Hynix)50%、三星(Samsung)約 40%、美光(Micron)約 10%。

高階深度學習AI GPU規格也刺激HBM產品更新,下半年隨NVIDIA H100與AMD MI300搭載,三大原廠規劃對應規格HBM3量產,今年或有更多客戶導入HBM3,SK海力士為唯一量產新世代HBM3產品的供應商,整體HBM市占率可望提升至53%,三星、 美光則陸續年底至明年初量產,HBM市占率分別為38%及9%。

預估2023年AI伺服器出貨量年增15.4%

NVIDIA定義的DL / ML型AI伺服器平均每台均搭載4或8張高階顯卡,搭配兩顆主流型號x86伺服器CPU,主要拉貨力道來自美系雲端業者Google、AWS、Meta與微軟。TrendForce統計,2022年高階搭載GPGPU的伺服器出貨量年增約9%,近80%出貨量集中美中系統八大雲端業者。展望2023年,微軟、Meta、百度與字節跳動相繼推出基於生成式AI衍生產品服務而積極加單,今年AI伺服器出貨量年增率可望達15.4%,2023~2027年AI伺服器出貨量年複合成長率約12.2%。

AI伺服器刺激伺服器DRAM、SSD與HBM需求同步上升

TrendForce調查,AI伺服器可望帶動記憶體需求成長,現階段而言,伺服器DRAM普遍規格約500~600GB,AI伺服器單條模組多採64~128GB,平均容量可達1.2~1.7TB。以企業級SSD來說,AI伺服器追求速度更高,要求優先往DRAM或HBM滿足,SSD容量提升呈非必要擴大容量態勢,但傳輸介面會為了高速運算需求優先採用PCIe 5.0。相較一般伺服器,AI伺服器多增用GPGPU,因此以NVIDIA A100 80GB配備4或8張採計,HBM用量約320~640GB。未來AI模型逐漸複雜化趨勢下,刺激更多記憶體用量,並同步帶動伺服器DRAM、SSD及HBM需求成長。

由 科技新報 轉載