薛瀾:發展人工智能,要裝好剎車再上路

·人工智能治理有兩個核心內容:一是發展問題,即如何構建良好的制度規則,推動人工智能創新發展、科技向善;二是安全問題,包括保證安全底線和防範其他風險。

·未來人工智能安全可能也會形成一個市場,全社會也需要加大對人工智能安全領域的研發投入,使得有更多的技術公司參與監測和評估人工智能的安全性,政府監管部門也要有更加有效的工具來防範相關風險。

在機器人“三大法則”的限制下,人類與機器人和諧相處,但在一起離奇的兇殺案發生後,警探調查發現機器人產生了自我意識,隨時可能成爲人類的“公敵”……近年來,隨着通用人工智能迅速發展,20年前上映的電影《我,機器人》中的恐怖劇情成爲現實的概率正逐漸增加。但對於人工智能國際治理的具體準則,國際社會仍未達成共識。

3月7日,中共中央政治局委員、外交部部長王毅表示,人工智能進入爆發式發展的關鍵階段。我們主張發展與安全並重,既要擁抱新事物新機遇,也要裝好剎車再上路,共同推進人工智能全球治理。

實現人工智能全球治理難在何處?人類真的需要經歷一場危機才能意識到人工智能的安全風險嗎?怎樣幫助發展中國家在人工智能發展中不掉隊?近日,清華大學文科資深教授、蘇世民書院院長、公管學院學術委員會主任薛瀾在接受採訪時就這些問題發表了見解。

我們距離形成全球性人工智能治理共識還有多遠?

薛瀾表示,一方面,各國對人工智能全球治理的宏觀原則存在基本共識。中國、美國、歐盟提出的人工智能治理原則,都以負責、包容、平等、安全等理念爲核心。另一方面,世界各主要經濟體還沒有進入就人工智能全球治理的具體措施進行充分、深入交流的階段。各國各自出臺了人工智能國內治理的法律或措施,但還沒有把這些規則拿到桌面上進行對比,看看對共識性原則的理解在實踐中是否有差異、是否可以協調形成全球性規則。

薛瀾表示,關於未來可能達成的全球性共識,首先要明確,人工智能治理有兩個核心內容。一是發展問題,即如何構建良好的制度規則,推動人工智能創新發展、科技向善;二是安全問題,包括保證安全底線和防範其他風險。薛瀾強調,這是所有治理邏輯都必須依託的出發點。

在安全底線問題上,全球有明顯的共同利益。大家都擔心人工智能未來可能不受人類社會控制,所以,大家會尋找爲了維護共同利益而必須遵守的規則。但在一般的社會應用層面的風險問題上,各國對不同風險的評判不同、價值觀念不同等,會存在不同的立場。比如爭議很大的人臉識別技術,有些社會反應比較強烈,擔心會侵犯個人隱私及泄露個人信息;但有些社會感覺如果應用恰當並加上合理的規制,承擔一些不高的風險可以換取更加方便的社會應用。

考慮到種種分歧,各方最終能否形成治理人工智能的全球性規則,還要打一個問號。一個可能的結果是:各國在安全底線問題上達成共識並建立機制,但在其他問題上,各國會按照各自的治理邏輯進行規制,並在一定程度上協調。

如何破解國際多邊談判速度跟不上技術發展速度的難題?

薛瀾表示,人工智能全球治理需要“敏捷性”,之前國際社會缺乏這種緊迫感。在ChatGPT發佈之前,人們覺得通用人工智能距離我們還比較遙遠。但現在,大家已經意識到通用人工智能實現的可能性已經越來越大,不受人類控制的、有自主意識的系統出現的可能性也越來越大。

最近一兩年,在ChatGPT等產品發佈後,人工智能的全球治理特別是風險防控得到的關注已經越來越多。但現實情況是,由於一些全球治理問題非常複雜,很多治理機制會同時參與、介入對其治理,形成“機制複合體”。人工智能就有這種問題。從聯合國到各個國際組織、各國政府、行業標準組織、非政府組織等都提出了不同的要求和規則。

這種情況的特點是,不同治理機制之間存在重疊和衝突,彼此又沒有清晰的從屬關係。聯合國不是“世界政府”,並非對所有參與者和社會主體都有普遍約束力。這使得問題的討論和解決變得更加複雜。在這種情況下,各方需要特別注意包容性,儘可能容納更多不同的社羣和觀點,以尋找真正的共識。

薛瀾表示,希望人類社會的智慧可以儘快找到建立國際機制的可行方案。同時,很多專家也在呼籲人工智能技術公司放慢發展步伐,在不能確保安全、缺乏規制的情況下不要輕易推進技術前沿。當然,未來人工智能安全本身可能也會形成一個市場,全社會也需要加大對人工智能安全領域的研發投入,使得有更多的技術公司參與監測和評估人工智能的安全性,政府監管部門也要有更加有效的工具來防範相關風險。 (曹然)

內容摘選自《中國新聞週刊》



Scroll to Top