螞蟻發佈並開源萬億參數思考模型Ring-1T,綜合能力逼近GPT-5

【環球網科技綜合報道】10月14日凌晨,螞蟻集團正式推出萬億參數思考模型Ring-1T,並全面開源模型權重、訓練配方。Ring-1T在9月30日開源的預覽版Ring-1T-preview基礎上,持續擴展大規模可驗證獎勵強化學習(RLVR)訓練,進一步激發萬億基座的自然語言推理能力,並通過 RLHF 訓練完善模型通用能力,在各項任務榜單上表現更加均衡。

爲了持續激發Ring-1T的數學等複雜推理能力,此次百靈團隊挑戰了難度更高的IMO2025(國際數學奧利匹克)賽題,將Ring-1T接入多智能體框架AWorld,使用純自然語言推理進行解題。實驗結果顯示,Ring-1T僅用一次解出了第1、3、4、5題,相當於IMO銀牌水平,成爲首個能拿IMO國際奧數獎的開源系統。Ring-1T在第三次嘗試IMO時對第2題幾何證明也給出了接近滿分的證明過程,在頂流大模型幾乎全軍覆沒的第六題中將答案收斂到與Gemini 2.5 Pro 相同的“4048”(正確答案爲2112)。作爲一款思考模型,Ring-1T也表現出了極佳的通用能力,在“人類偏好對齊”測試Arena-Hard V2中,Ring-1T以81.59的成功率居於開源模型榜首,逼近GPT-5-Thinking(High)82.91的成績。在面向嚴謹領域的醫療問答HealthBench測評中,Ring-1T也以最高分取得開源領域最佳。

萬億參數思考模型訓練最大難題是訓推精度差異,即訓練階段與推理階段因實現細節差異導致的訓練和推理精度不一致,進而導致訓練崩潰。在Ring-1T模型中,螞蟻採用了自研的“棒冰(icepop)”算法來應對這項行業難題,即用帶掩碼的雙向截斷技術把訓練-推理分佈差異凍結在低水位,確保長序列、長週期訓練不崩。此外,應對萬億參數模型強化學習訓練,螞蟻還自研了高性能強化學習系統ASystem(其中包含已開源的高性能強化學習框架AReaL),特別針對萬億參數模型的顯存管理和訓推權重交換問題做了精細的優化,實現了單機顯存碎片秒級回收、權重零冗餘交換,把大規模RL訓練穩定跑成日常。

此外,本次發佈的Ring-1T模型繼續採用Ling 2.0架構的1T base模型做後訓練,Ling 2.0採用了包括高度稀疏的MoE架構,1/32的專家激活比、FP8混合精度、MTP等諸多特性實現高效訓練與推理。在後訓練階段,螞蟻百靈團隊通過LongCoT-SFT + RLVR + RLHF多階段訓練,顯著提升了模型的複雜推理能力以及指令跟隨和創意寫作等通用能力。

據百靈團隊透露,Ring-1T模型是其在萬億思考模型上的首次嘗試,螞蟻百靈團隊會在後續的版本中繼續完善模型性能。目前,用戶可通過HuggingFace、魔搭社區下載模型,並通過螞蟻百寶箱等平臺在線體驗。

據瞭解,截至目前螞蟻百靈大模型已經發布18款模型,已形成從160億總參數到1萬億總參數的大語言模型產品矩陣,其中兩款萬億參數模型—萬億參數通用大語言模型Ling-1T、萬億參數思考模型Ring-1T。隨着兩款萬億參數模型的發佈,百靈大模型也正式步入2.0階段。 (勃潺)



Scroll to Top