【環球時報報道 記者 郭媛丹】據央視報道,全球最大人工智能(AI)大模型API聚合平臺OpenRouter發佈的最新數據顯示,截至3月15日,中國AI大模型的周調用量達到4.69萬億Token,連續第二週超越美國,全球調用量排名前三的位置更是被中國模型包攬。在對中國AI大模型高速發展感到興奮的同時,也有不少民衆對“Token”這個頻繁出現在AI相關新聞裏的外來詞彙感到陌生。它到底是什麼呢?

奇安信安全專家張勇23日在接受《環球時報》記者採訪時表示,Token中文翻譯過來是“詞元”,是“AI消化文字的最小單位”。爲更方便理解,張勇用喫飯做比喻:“就像人喫餃子,不會一口吞下一整盤,而是一個一個喫。AI處理文字時,也先把句子切成一個個它能‘嚼得動’的小塊,這些小方塊就叫Token。”對AI切割長句子的過程,張勇進一步解釋說,大致分爲3種情況。第一,1個詞是1個Token,比如“蘋果”就是1個Token。第二,1個字是1個Token,類似“啊”“呀”這種單字。第三,有些詞會被切成多個Token:比如“deeplink”這個英文單詞,可能會被切成“deep”“link”兩個Token,生僻字也常被切成好幾個Token。

張勇表示,在AI時代,其實Token有非常高的“含金量”:“因爲現在的大模型都是按Token收費的,而不是按‘字數’或‘提問次數’收費。”張勇舉例說:“ 比如向大模型發問‘你好’,就可能花掉2個Token;模型回答一大段,花掉500個Token。錢包里扣的就是Token總數。”

張勇說,與人類一口氣說話一樣,大模型一次能處理的內容也有上限(上下文長度),比如128k Token。“這個上限不是你提問的字數,而是你的提問+模型回答的總Token數。所以如果聊的內容太多,模型就會‘忘記’最早說的話,因爲Token窗口被擠滿了。”

既然人類與大模型的互動是按Token收費,有沒有便宜的竅門?張勇表示,和大模型對話時,儘量精簡提示詞,去除“禮貌廢話”和囉嗦用語,比如“你好”“感謝”等,這樣可以顯著節省Token,因爲大模型不需要禮貌用語來理解任務,每句客套話都在消耗輸入和輸出的Token。此外,用英文提問通常比中文更省Token,因爲英文單詞的Token密度更高。

也正因如此,Token調用量被用來衡量AI大模型的活躍度。張勇表示,不管是我們問AI問題,還是AI給出回覆,都會被拆成一個個Token來運算,Token調用量越高,說明大模型被用得越多、越普及。

與此同時,Token調用量還是AI應用活躍度的關鍵指標,Token調用量越高,意味着模型被用得越多,AI的市場熱度就越高。就像看一款App火不火,要看它的用戶“總使用時長”,Token調用量就是AI的“總使用時長指標”。     

接受《環球時報》記者採訪的專家23日表示,中國AI 的使用規模越來越大,普及速度會非常快,未來發展潛力巨大。 摩根大通預測,中國的AI推理Token消耗量將從2025年的約10千萬億增長至2030年的約3900千萬億,5年間增長數百倍。



Scroll to Top