◎ 採寫丨科技日報記者 崔爽
◎ 策劃丨劉恕 李坤
你“養蝦”了嗎?
近期,一款開源智能體項目OpenClaw迅速走紅。因圖標爲紅色龍蝦,它在國內被戲稱爲“龍蝦”。與傳統對話式AI應用不同,它的定位是“真正幹活、持續運行的個人助手”。
從技術社區到企業內部,從開發人員到普通用戶,越來越多人開始“養蝦”:它可以寫代碼、整理資料、定時彙報,甚至在你不在線時自動完成任務,儼然一位24小時待命的“數字助手”。
社交平臺上,有人分享“讓智能代替自己上班”的經驗,也有人展示如何通過簡單配置,讓系統自動生成報告、發送郵件。
“龍蝦”熱潮的背後,以OpenClaw爲代表的智能體,正推動人工智能從“對話工具”向“執行主體”轉變。“我們正處於智能體技術從‘演示可行’到‘大規模部署’的關鍵轉折期。”中國人民大學高瓴人工智能學院準聘副教授林衍凱給出判斷。
但與此同時,問題也浮出水面。國家知識產權局4月1日發佈風險提示稱,使用智能體撰寫專利申請文件可能誘發多重風險。伴隨一系列安全預警,人們不再只關心它“會不會出錯”,而開始追問它“有沒有失控”“是否值得信任”。
技術的興奮與安全的焦慮,在同一時間被放大。OpenClaw到底是什麼?它爲什麼在此刻爆發?我們是否已經準備好應對隨之而來的風險?
1、AI從“回答者”變身“行動者”
“上週末去崇禮滑雪,在纜車上我發現還有一些工作沒完成,隨即在手機上通過飛書給‘龍蝦’派任務。經過幾輪對話,它用我本人的口吻風格,自動生成文件發給同事,給我的反饋基本達到要求。”字節跳動飛書研發工程師楊溢哲聊起“養蝦”經歷。
OpenClaw爆火的密碼,就藏在這個簡單的場景裏——它能“自動”處理工作。
過去幾年,大模型的發展更多停留在這樣一個階段:通過海量數據訓練,使AI具備接近人類的通識理解能力,從而回答問題、生成內容。
而OpenClaw讓AI跨過這條邊界。它不只是調用模型生成答案,而是將這些能力嵌入一個可以持續運行的系統中,使AI能夠理解任務、拆解步驟並自主執行。在清華大學計算機系教授、面壁智能聯合創始人兼首席科學家劉知遠看來,它更接近一種新的基礎設施——一個圍繞智能體運行的“操作系統”。
這也意味着,AI第一次以“行動者”身份進入現實環境。從這個層面上說,OpenClaw具有非常重要的技術示範意義。
從結構上看,它由三層構成:底層是模型能力的抽象封裝,中間是負責規劃與決策的Agent(智能體),上層是具體執行操作的Skill(功能插件)。
不過,值得注意的是,受訪專家普遍認爲,OpenClaw的爆發並非源自底層算法的突破。林衍凱表示,無論是語言理解還是代碼生成,其核心仍然依賴於現有大模型體系。真正的變化發生在工程層面,即如何把原本分散的能力整合爲一個可用、可擴展、可持續運行的系統。
這種變化不易察覺,卻極具“殺傷力”,因爲它直接降低了使用門檻。過去需要團隊開發的複雜系統,如今個人開發者也可以快速搭建。
OpenClaw之所以火爆,正是技術成熟和需求疊加的結果。
一方面,大模型在工具調用與任務執行方面已經跨過“可用”門檻,不再停留在演示階段;另一方面,圍繞AI的工具鏈逐步成熟,使複雜能力可以像搭積木一樣被組合調用。
與此同時,用戶認知也在發生變化。人們不再滿足於嚐鮮對話,而是開始把AI視爲工作“搭子”。
更重要的是智能體有了“記憶能力”,給用戶帶來類似養成的體驗——通過對短期信息與長期知識的管理,智能體能夠在多輪任務中保持連續性,並逐步形成“經驗”,互動時間越長,它的表現越“貼心”。
這些因素疊加在一起,使OpenClaw呈現出一種不同於傳統AI產品的形態。這種因技術進步解放雙手的體驗,已經滲入很多人工作生活的日常。
2、高權限帶來高風險
雖然是“外來物種”,但OpenClaw進入中國後迅速走紅,引發關注。
國內廠商爭相把部署服務做成“一鍵安裝”,部分互聯網公司上線“傻瓜式”配置方案。他們還將OpenClaw接入了即時通信軟件。
這背後,不可忽視的是,在國內“養蝦”的成本遠低於海外。
研究報告指出,國產模型的API(應用程序編程接口)調用價格,大約是海外同類產品的1/6。這種優勢源於國內算力背後更便宜的電力、更靈活的硬件配置以及模型廠商間的激烈競爭。
低門檻上手加爆發式傳播,讓“龍蝦”一躍成爲AI頂流。
然而,當AI開始“動手”,風險也成倍放大。
奇安信發佈的《OpenClaw生態威脅分析報告》顯示,截至3月13日,全球OpenClaw部署實例就已超過23萬個,其中超過2萬個可能存在安全漏洞。被操控的智能體可在數分鐘內完成數據竊取、權限提升甚至業務篡改。
“OpenClaw帶來的不只是更多安全漏洞,它還讓風險邊界整體外擴。”長亭科技安全研究員姜晨煒認爲,“過去,AI的風險更多停留在對話層,如說錯話或生成不當內容;而現在,智能體可以直接操作文件、調用接口、訪問網絡,潛在風險不可估量。”
換句話說,過去企業防範的是“系統被攻擊”,而現在必須面對的是“系統在執行攻擊”。
“‘龍蝦’這樣的智能體是一個不知疲倦、會自動化執行的超級用戶。”騰訊iOA產品運營負責人劉登峯說,如果安裝在終端的“龍蝦”被攻破,就相當於攻擊者完全獲得了該終端的電腦權限,進而可能開展橫向滲透,擴散到企業的全部網絡終端或服務器,帶來極大的安全風險。
另一重核心風險是Skill供應鏈的投毒與濫用。劉登峯解釋,攻擊者可以把惡意文件僞裝成正常Skill,比如文件格式轉換、天氣查詢。對於普通用戶,甚至企業級員工而言,很難自行分辨。
此前,全球範圍內已出現多起相關安全事件,如Meta公司安全專家在讓OpenClaw處理真實郵件時,因上下文壓縮導致“執行前確認”的關鍵約束丟失,最終出現郵件被智能體誤刪的失控行爲。
在國內,工業和信息化部網絡安全威脅和漏洞信息共享平臺也發佈風險警示,明確OpenClaw存在信任邊界模糊、越權操作等系統性風險,建議關閉不必要的公網訪問、完善身份認證與安全審計機制、嚴格管理插件來源、持續關注補丁和安全更新。
國家知識產權局發佈最新風險提示,OpenClaw等智能體存在權限過高、安全漏洞、插件投毒等隱患,使用其撰寫申請文件,易造成技術交底書等核心信息外泄。一旦泄露,專利申請技術方案可能因喪失新穎性無法授權,甚至被他人搶先申請專利。爲此,提醒申請人需提高風險防範意識。
3、“技防+人防”築起安全屏障
“龍蝦”爆紅,風險焦慮如影隨形。在這一背景下,圍繞智能體的安全防護,必須從傳統模式轉向系統性治理。
在中國工程院院士吳世忠看來,自主性智能體帶來的最大風險,正是其過高的“系統代理權”。作爲已嚐鮮的“養蝦人”,他提醒用戶應時刻繃緊安全這根弦,建議用戶將“龍蝦”養在一個獨立的智能終端上,做好物理隔絕,並堅持最小授權原則,特別是對涉及刪改的操作,必須設置二次確認。
騰訊電腦管家高級產品經理董京特意提到,不要將銀行密碼、雲服務密鑰等敏感信息暴露給AI,不要給它權限去訪問一些不該訪問的內網服務;在讓AI執行高風險操作前,務必做好重要數據的備份。
平臺同樣需要築牢防線。董京打了個比方:“給AI造一個隱形牢房,把它關進去”。
這一“牢房”,就是安全沙箱機制。董京介紹,騰訊電腦管家團隊近期上線了“龍蝦管家”AI安全沙箱功能。它主要管理三類問題:AI權限過大時,通過沙箱策略捆住AI的“手腳”;實時監測AI調用的腳本是否包含惡意指令等風險,防止出現清理垃圾卻誤刪所有文件等不測;針對OpenClaw自身迭代中出現的安全漏洞,及時進行修復。
“‘龍蝦管家’也會提供AI運行的實時日誌,AI訪問什麼、調用什麼,所有操作用戶都可以一目瞭然。”董京說。
在更底層的安全設計上,姜晨煒指出,智能體需部署在受控環境中,並結合網絡隔離策略,限制其與內網的直接通信。在執行層面也要建立明確的安全邊界,對於文件操作、外部下載、權限修改等高風險行爲,應設定不可突破的限制,並引入人工審批機制,在效率與安全之間求得必要平衡。針對功能插件體系,則需要建立審覈機制,如代碼掃描、來源校驗等,防止惡意插件危害系統。
技防之上,真正的安全離不開制度約束。
“在政策層面,加快建立健全開源智能體安全治理體系。”賽迪研究院信息化與軟件產業研究所副主任黃文鴻建議,儘快研究出臺開源智能體安全部署指南和行業標準,重點針對智能體的系統權限授予、執行行爲審計、敏感操作確認等關鍵環節明確安全基線要求,對政務、金融、醫療等涉密涉敏領域,要實行更嚴格的部署准入和使用管控。
與此同時,應儘快建立開源智能體技能市場的安全審覈與准入機制,並加快研究開源智能體自主行爲的責任歸屬規則,釐清開源框架開發者、部署運營者、大模型提供方、技能發佈者等需要承擔的法律責任,填補當前“AI出錯無人擔責”的制度空白。
“當前OpenClaw暴露出的種種問題,與其說是缺陷,不如說是一場提前到來的‘壓力測試’。”黃文鴻認爲,它讓行業在智能體大規模落地之前,就看到了未來可能面對的風險形態。
這場“養蝦熱”的意義或許並不在於事件本身,而在於它所指示的方向。業內專家預測,未來的智能終端中,很可能會出現類似操作系統級別的智能體平臺,而OpenClaw所扮演的角色,正是這一形態的早期原型。
人工智能已經開始“動手”,安全治理是擺在人類面前的必答題——只有在釋放生產力的同時樹立清晰邊界,才能讓人工智能真正從“可用”走向“可信”。
延伸閱讀
“龍蝦”揮鉗,算力喫緊
崔爽
“龍蝦”揮舞的雙鉗下,是一個深不見底的算力黑洞。
有機構算了一筆賬:相比傳統聊天機器人,智能體的Token(詞元)消耗動輒放大數十倍,一個稍微複雜一點的任務,背後喫掉的算力,甚至可能是普通對話的百倍、千倍。有科技博主實測,如果真把“龍蝦”當成生產工具放開用,一週下來,費用接近萬元。
數據是最直觀的註腳。“養蝦”火起來之後,模型調用量極速攀升。全球API聚合平臺OpenRouter的數據顯示:3月16日至22日,全球大模型調用量已經達到20.4萬億Token,一週漲了兩成多。其中,中國大模型的周調用量漲幅更是超過五成,並且已經連續第三週超過美國。當週全球調用量排名前四的模型,也全部是“中國造”。
國家數據局公佈的數據顯示,今年3月,中國日均Token調用量已突破140萬億,兩年增長了上千倍。
在不少業內人士看來,這樣的增長既令人興奮,也暗含隱憂。
3月27日中關村論壇年會的一場AI主題論壇上,算力缺口幾乎成了繞不開的話題。“OpenClaw帶來算力需求的暴增。”無問芯穹CEO夏立雪觀察到,“上次見到這樣的增速,還是當年3G手機剛普及,手機流量不夠用的時候。以後我們的手機裏可能會有兩張卡,一張是SIM卡,一張就是‘Token卡’。”
問題在於,需求的曲線已經陡峭起來,供給卻還沒完全跟上。“讓更聰明的模型執行更復雜的任務,資源消耗極大。如果算力不夠,一個問題丟進去半天沒有響應,一切體驗都是空談。”智譜華章CEO張鵬說得直白。在他看來,推理需求正以百倍級別爆發,算力很可能成爲制約行業發展的核心瓶頸。
夏立雪認爲,當前階段,與其單純擴張算力規模,不如把已有資源用到極致。圍繞這個目標,他提出,應加快構建更高效、標準化的“Token工廠”,提供持續穩定、規模化的Token服務,使頂尖模型能力高效賦能海量下游場景,儘可能提升每一個Token的轉化效率,讓算力“花得值”。
再往遠一點看,未來的基礎設施本身也會走向智能化,可以自我調度、自主優化,甚至內置Agent來充當“管理者”,讓算法與算力系統形成更緊密的深度協同。
面對“算力焦慮”,也有人重申架構創新的價值。
小米MiMo大模型負責人羅福莉回憶,兩年前,在算力受限的情況下,中國團隊依然通過模型架構創新,“逼出”更高效率,比如DeepSeek的探索,“這給了我們勇氣和信心”。
如今,雖然硬件條件已經改善,國產芯片不再受限,但這種對更低推理成本、更高算力效率的探索,依然會在智能體時代成爲未來競爭的關鍵。