我是廣告 請繼續往下閱讀
其二,高階GPU A100及H100的高獲利模式也是關鍵,由於旗下產品在AI伺服器市場已擁有主導權的優勢,據TrendForce研究,H100本身的價差也依據買方採購規模,會產生近5,000美元的差異。
其三,下半年ChatBOT及AI運算風潮將持續滲透至各種專業領域(如雲端/電商服務、智慧製造、金融保險、智慧醫療及智慧駕駛輔助等)的開發市場,同步帶動每台搭配4到8張GPU的雲端AI,以及每台搭載2到4張GPU的邊緣AI伺服器應用需求漸增,預估今年搭載A100及H100的AI伺服器出貨量年增率逾5成。
此外,從高階GPU搭載的HBM來看,NVIDIA高階GPU H100、A100主採HBM2e、HBM3。以今年H100 GPU來說,搭載HBM3技術規格,其中傳輸速度也較HBM2e快,可提升整體AI伺服器系統運算效能。隨著高階GPU如NVIDIA的A100、H100;AMD的MI200、MI300,以及Google自研的TPU等需求皆逐步提升下,TrendForce預估2023年HBM需求量將年增58%,2024年有望再成長約30%。