AI 大模型的興起催生了海量算力需求,而數(shù)據(jù)處理量和傳輸速率大幅提升使得 AI 服務(wù)器對芯片內(nèi)存容量和傳輸帶寬提出更高要求。HBM具備高帶寬、高容量、低延時和低功耗優(yōu)勢,目前已逐步成為 AI 服務(wù)器中 GPU 的搭載標(biāo)配。但因?yàn)镠BM會使得封裝高度提升、散熱需求變大,所以廠商會使用顆粒封裝材料(GMC)去規(guī)避問題,而GMC需要添加TOP CUT20um以下球型硅微粉和Low a球鋁,填充比例起步85%,理論值91.2%。