【環球網科技綜合報道】4月17日消息,Akamai宣佈推出戰略級解決方案Akamai Cloud Inference。據悉,這款基於其全球分佈式雲平臺打造的AI推理解決方案,以突破性的性能指標引發行業關注——與傳統超大規模雲架構相比,其吞吐量提升3倍、延遲降低60%,成本降低86%。
在生成式AI應用爆發的背景下,企業逐漸意識到大型語言模型(LLM)訓練與推理環節的架構差異。彭博社預測到2032年AI推理市場規模將達1.3萬億美元,其他多份近期報告也印證了這一判斷。這一市場轉變預示着2025年將成爲分佈式AI推理加速發展的元年。
"訓練如同繪製地圖,需要集中式超算中心;而推理更像是實時導航,必須在靠近用戶的邊緣發生。"Akamai雲技術部門首席運營官兼總經理Adam Karon分析稱,2025年大約有75%的數據將產生於傳統雲區域之外(Gartner數據),傳統雲架構在響應速度、數據傳輸成本等方面已稍顯疲態。
在此背景下,Akamai推出Akamai Cloud Inference的解決方案,依託其覆蓋130個國家、4200多個節點的分佈式網絡,構建了獨特的"雲-邊協同"架構。通過與NVIDIA、VAST Data等生態夥伴的深度整合,該解決方案提供從GPU加速計算、向量數據庫實時檢索到WebAssembly邊緣執行的完整技術棧。
具體來看,該解決方案創新性地整合了CPU、GPU與量身定製的ASIC VPU,針對不同推理場景動態調配資源。同時,Akamai 還與 NVIDIA 的 NVIDIA AI Enterprise 生態系統進行了整合,利用 Triton、TAO Toolkit、TensorRT 和 NVFlare 來優化 NVIDIA GPU 上 AI 推理的性能。
Akamai通過整合VAST Data實時數據訪問、可擴展對象存儲及Aiven/Milvus向量數據庫技術,構建了支持檢索增強生成(RAG)的智能數據架構,實現微調模型的安全存儲與全球範圍的低延遲AI推理。
另外,Akamai通過Linode Kubernetes Engine企業版與最近發佈的 Akamai App 平臺,集成KServe、Kubeflow等開源工具構建容器化AI推理平臺,實現PB級性能的自動擴展、混合多雲部署及成本優化。
據悉,Akamai與Fermyon等 Wasm 提供商合作,集成WebAssembly技術,使開發者能夠藉助無服務器架構直接在邊緣端執行輕量化LLM推理,爲延遲敏感型應用提供支持。(青雲)