專家談AIGC版權爭議:人工智能安全倫理遠超技術範疇

【環球網科技報道 記者 李文瑤】近日,關於番茄小說平臺增設“AI訓練補充協議”的討論仍在持續,甚至引發了平臺作者的集體抵制。

其中一個重要的爭議方向是:由AI大模型訓練生成的網文作品版權,究竟屬於誰?

對此,北京大學法學院教授、北京大學人工智能研究院AI安全與治理中心主任張平教授在中國人工智能產業發展聯盟(以下簡稱“AIIA”)安全治理委員會成果發佈會上對環球網科技記者表示,由人工智能技術發展所帶來的版權問題、專利問題,已經處於非常緊迫需要解決的狀態。

“人工智能歸根到底不是一個技術問題。”生成式人工智能引領了新一輪人工智能產業的發展,但在帶來機遇的同時也引發了安全倫理問題,在張平等行業專家看來,人工智能不僅僅是技術問題,它還涉及倫理、法律、社會、文化等多個層面,這也是行業、國家等多個層面共同推動人工智能治理的重要原因。

人工智能:從技術問題到倫理安全問題

數據語料是訓練AI必不可少的重要“原料”。

根據此次番茄小說發出的“AI訓練補充協議”顯示,“甲方(番茄小說)可將簽約作品的全部或部分內容及相關信息(如作品名稱、簡介、大綱、章節、人物、作者個人信息、封面圖等)作爲數據、語料、文本、素材等用於標註、合成數據/數據庫建設、AI人工智能研發、機器學習、模型訓練、深度合成、算法研發等目前已知或未來開發的新技術研發/應用領域。”

這也意味着,網文作者在簽署該協議後,平臺可以將作者的網文語料、相關作品信息、作者信息用作大模型訓練使用。同時平臺強調:“簽署後,訓練生產內容受平臺版權保護,不允許抄襲或盜版行爲。”

這也引發了網文作者的不滿。首先是目前訓練後生產的內容,帶有極強的作者個人寫作特色,如果不做特殊標明,幾乎無法判斷是作者本人撰寫還是機器生成。

這與近期一直在討論的“AI換臉擬聲”的情況類似。今年4月,北京互聯網法院對全國首例AI生成聲音人格權侵權案做出宣判,一審判決,被告方使用原告聲音、開發案涉AI文本轉語音產品未獲得合法授權,構成侵權,書面賠禮道歉,並賠償原告各項損失25萬元。

在海外,演員與AI企業之間的訴訟也在引發關注。今年5月,漫威超英“黑寡婦”的扮演者斯嘉麗·約翰遜將OpenAI告上法庭,控訴ChatGPT非法使用自己的聲音,要求下架AI合成語音。

AIIA安全治理委員會辦公室主任石霖對記者說道:“現在隨着AIGC內容越來越多,我們需要在一定程度上去區分到底哪些是人工生成,哪些是人工智能生成的。”

另一方面,對於抄襲或者盜版行爲的判定,也引發了作者的擔心。有作者反饋,自己撰寫的小說大綱、網文等信息被“投餵”給AI大模型進行訓練後,平臺反而判斷自己的原創內容屬於抄襲,而機器生產的內容屬於原創。

這也引發了行業對於AI內容安全治理的擔憂。對此,中國人工智能祕書長、中國信息通信研究院餘曉暉院長對記者表示,人工智能本身的技術創新,應用和發展有非常大的不確定性,如何釋放出人工智能最大向善的能力,造福於人類,促進我們經濟社會發展,需要世界各國一起共同進一步推動。

“開展人工智能安全治理工作不僅是我們國家推動人工智能發展和安全的一個非常重要的工作,其實也是全球和我們人類共同需要對待的重大問題。”

人工智能治理成爲新挑戰

如何更好地進行人工智能安全治理工作?石霖說道,AIIA安全治理委員會是希望能夠建立統一內容標識的平臺,去實現內容可溯源、可追溯的能力,從而提升整理的人工智能治理能力。

目前,我國已頒佈實施《互聯網信息服務深度合成管理規定》《生成式人工智能服務管理暫行辦法》等相關法律,但在針對AI領域的司法治理仍有進一步細化空間。

AIIA安全治理委員會主任委員、公安部信息安全等級保護評估中心原副主任、研究員畢馬寧表示,過去一年,大模型發展速度之快,賦能範圍之廣,讓我們看到通用人工智能的實現路徑與曙光,但人工智能安全問題的嚴重性與緊迫性不容忽視。當我們從不同層面審視人工智能安全問題時,可以發現人工智能所帶來的安全挑戰已經從技術本身所帶來的數據、算力、系統等傳統安全問題,逐漸向對個人、組織、國家社會、人類生態的衍生安全問題蔓延。

在餘曉暉看來,開展人工智能安全治理工作,可以從以下幾個方面來進行思考:一是完善人工智能安全風險識別方法論。目前,人工智能技術日益融入經濟社會發展各領域全過程,其安全風險面不斷擴大,需要建立更加敏捷、精準的安全風險識別機制。

二是通過強化風險評估與防範,重點從人工智能基礎設施、算法模型、上層應用以及產業鏈等方面進行評估,儘快儘早發現風險。

三是加強人工智能安全技術治理,加強對算法模型毒性、魯棒性、公平性等方面的評測技術工具研究,通過技術治理技術。

四是需要加強國際合作,中國需要和全球一起共同研究推動全球性人工智能,我們達成更廣泛的共識,共同釋放我們人工智能潛力,也防範治理風險。

目前,中國信通院已經開展了大模型安全基準測試(AI Safety Benchmark)工作,聯合產業界、學術界30餘家單位對國內外開源、商用大模型開展安全測試,幫助產業界瞭解大模型的安全水位;同時發佈了大模型安全加固解決方案,給出提升安全能力的實際措施。

人工智能安全已經成爲全球議題

在AI治理規範方面,全球多個大國都已開始行動。去年11月,英國舉辦了首屆全球人工智能安全峯會,美國、英國、歐盟、中國、印度等多方代表參加。今年5月,歐盟議會批准歐盟《人工智能法案》,這是世界上首部對人工智能進行全面監管的法案。

畢馬寧介紹,目前,新加坡在原先治理框架基礎上推出了《生成式人工智能治理模型框架》,提出人工智能評估需考慮的九個維度。日本發佈《人工智能運營商指南》,爲開發者、提供者、使用者制定行爲準則。我國從《互聯網信息服務算法推薦管理規定》到《生成式人工智能服務管理暫行辦法》,對人工智能技術進行了精準化治理提供相關依據。

AI治理正在展現框架化、協同化趨勢,我國也正積極拓展國際合作,7月1日,第78屆聯合國大會以協商一致方式通過了中國主提的“加強人工智能能力建設國際合作”決議,140多個國家參加聯署。在7月2日外交部例行記者會上,外交部發言人毛寧表示,這充分反映了各國在加強人工智能能力建設方面的廣泛共識,彰顯了各國通過團結合作加強能力建設、彌合智能鴻溝的意願。

在張平看來,在人工智能治理上,可以從三個維度來進行拆解:從最宏觀層面,在聯合國這個層面上倡導解決全人類共同面對的AI安全,所以我們就要強調以人爲本,以人類利益爲本。中觀層面,從國家出發,關注國家安全、網絡安全、基礎設施安全;微觀層面上就是進一步推動個人信息安全。

據瞭解,AIIA安全治理委員會已經啓動推出“人工智能安全守護計劃”,打造AI Guard品牌。中國信息通信研究院與國際組織開展了雙邊和多邊的討論交流,共同推動人工智能在全球的發展和安全治理。

面對人工智能帶來的不確定性、安全風險和挑戰,國際社會需要共同合作,共同推動人工智能安全治理。

中國科學院自動化研究所研究員、國家新一代人工智能治理專委會委員、聯合國人工智能高層顧問機構專家曾毅表示,人工智能安全與能力不是相互掣肘的關係,更安全的系統實際上具有更強的認知能力,同時,人工智能安全工作也不應僅僅是修復問題,而應是建構性的,從被動反應轉爲主動設計。“人工智能的發展和安全已經成爲全球性的議題,需要國際社會共同努力。”他說道。



Scroll to Top