【環球網科技綜合報道】10月28日,高通宣佈推出面向數據中心的下一代AI推理優化方案,包括基於Qualcomm AI200與AI250芯片的加速卡及機架系統。依託自身在NPU技術領域的積累,該系列方案聚焦機架級性能與內存容量優化,可憑藉高效能爲生成式AI推理提供支持,助力各行業推進可擴展、高效率的AI部署。

Qualcomm AI200方案專爲機架級AI推理設計,重點服務大語言模型(LLM)、多模態模型(LMM)推理及其他AI工作負載,核心優勢在於低總體擁有成本與性能優化。每張加速卡支持768GB LPDDR內存,既能滿足更高內存容量需求,又能控制成本,爲AI推理場景提供擴展性與靈活性支持。
Qualcomm AI250方案則首發近存計算(Near-Memory Computing)創新內存架構,該架構可實現10倍以上有效內存帶寬提升,同時顯著降低功耗,爲AI推理工作負載帶來能效與性能提升。此外,其支持的解耦式AI推理功能,能實現硬件資源高效利用,適配不同客戶的性能與成本需求。
Qualcomm AI200與AI250的機架解決方案具備多項共性技術設計:均支持直接液冷散熱,可提升散熱效率;兼容PCIe縱向擴展與以太網橫向擴展,滿足不同規模部署需求;內置機密計算功能,保障AI工作負載的運行安全;整機架功耗統一控制爲160千瓦,符合數據中心能耗管理標準。
高通技術公司高級副總裁兼技術規劃、邊緣解決方案和數據中心業務總經理馬德嘉(Durga Malladi)稱,爲配合硬件方案落地,高通技術公司提供超大規模級AI軟件棧,覆蓋從應用層到系統軟件層的全鏈路,且針對AI推理場景優化。據悉,該軟件棧支持主流機器學習(ML)框架、推理引擎、生成式AI框架,以及解耦服務等LLM/LMM推理優化技術。
開發者可通過高通的高效Transformer庫與Qualcomm AI Inference Suite,實現模型無縫接入,還能一鍵部署Hugging Face模型。同時,軟件端提供開箱即用的AI應用與智能體、完善工具、庫、API接口及AI運營化服務,降低企業與開發者的集成、管理及擴展成本。
Qualcomm AI200預計於2026年實現商用,Qualcomm AI250則計劃在2027年推向市場。未來,高通技術公司將按年度迭代節奏推進數據中心產品技術路線圖,持續聚焦AI推理性能、能效與總體擁有成本優化,助力數據中心更好適配生成式AI發展需求。(心月)