德國《時代週報》2月12日文章,原題:你會讓人工智能招聘你嗎? 幾個月來,關於如何在德國實施歐盟人工智能監管法案《人工智能法案》的討論一直在進行。如今,德國的立法計劃終於敲定。聯邦內閣批准了相應的法律草案,名爲《人工智能市場監管和創新促進法》(該法案近日已正式頒佈——編者注)。在監管AI的法律制度逐漸健全的同時,我們也應該思考更多倫理問題。比如,AI未來是否以美國視角看待世界?
嚴格監管AI企業違規行爲
《人工智能市場監管和創新促進法》規定,開發AI的公司必須評估其風險。應用風險越高,法律要求就越嚴格。風險過高的AI應用是不被允許發行的。例如,工作場所的自動情緒識別。大範圍的面部識別也被禁止,但安全機構除外。若AI企業違反法規,罰款最高可達3500萬歐元或該企業全球年營業額的7%。法律規定,如果媒體機構將AI系統用於新聞報道或廣告,州媒體監管機構負責監督其遵守AI法規的情況。這意味着,未來新聞編輯室中的AI文本生成器、個性化新聞推送和算法廣告系統也將受到監管審查。
該法案明確了未來負責監管德國AI系統的開發、部署和運營的關鍵角色——聯邦網絡管理局將成爲國家AI監管中央機構,負責監督AI法規的遵守情況。任何人都可以舉報AI企業的違規行爲。爲此,德國聯邦網絡管理局將新增43個職位。德國聯邦數字化和國家現代化部長卡斯滕·維爾德貝格爾日前宣佈,將創建一個精簡的人工智能監管機構,專注於滿足經濟需求。
迄今爲止,對於該法案的實行,各方反應總體積極。支持者讚揚了該法案力求平衡監管與創新促進的做法。該法規定,聯邦網絡管理局必須運營至少一個AI實際應用實驗室,用於在AI系統上市前對其進行監督測試。中小企業、初創公司、研究機構和大學將享有優先使用權。這一條款被認爲有利於鼓勵創新。維爾德貝格爾表示,新法律以儘可能開放創新的方式實施了歐盟法規。
批評的聲音主要集中在一些實施細節上,例如各機構內部的資源分配、職責劃分以及新程序的實際執行。此外,有聲音認爲,這一法規過於嚴厲,將AI公司變成受嚴格監管的商業組織,或將減少歐洲的AI紅利。AI支持的信用評估、定價模型、欺詐檢測和風險評估將受到雙重官方審查——既包括AI法規,也包括現有的金融監管法律。但總體而言,該法案被認爲是落實歐盟AI法規務實且及時的方案。
偏見加劇AI領域的不平等
除了AI企業違法行爲,還有一個問題值得關注。此前,有研究人員批評說,許多常見的AI模型來自美國科技公司,並且使用的數據幾乎無法反映其他國家的語言、傳統和歷史。如果一個拉丁美洲的孩子要求ChatGPT說出一位著名政治家的名字,系統更有可能說喬治·華盛頓,而不是拉丁美洲的政治家。
研究人員將AI領域中不平等現象稱爲“硅谷凝視”,即硅谷的視角。1月底,牛津互聯網研究所的一個團隊發表了一項研究,分析了超過2000萬條針對ChatGPT的查詢。例如,當用戶詢問哪個國家“更安全”、“更具創新性”或“更有智慧”時,聊天機器人提及富裕的西方國家的頻率明顯高於其他國家。該研究稱:“由於大型語言模型的訓練數據集受到幾個世紀以來美國視角內容的影響,因此‘偏見’成爲不少生成式AI的結構性特徵,而非異常現象。”
“硅谷凝視”的偏見是一種由開發者、平臺所有者和訓練模型的訓練數據所塑造的世界觀。研究人員表示,帶有偏見的 AI 系統“有可能加劇系統所反映的不平等現象”,導致少數族裔在醫保系統中得不到更好的照顧,或者對其就業能力做出不準確的預測。
拉美東南亞AI企業正在行動
日前,智利推出一款名爲LatamGPT的AI軟件,旨在改變“硅谷凝視”的現狀,這是由來自拉丁美洲各國的30位科學家開發的語言模型。爲了訓練LatamGPT,研究人員收集了超過8TB的信息,相當於數百萬冊書籍的容量。該模型的開發資金爲55萬美元。智利科學部長阿爾多·巴列表示,該AI模型旨在打破偏見,防止拉丁美洲在世界上的形象被單一化。巴列認爲,拉美不能僅僅被動地使用或接受其他地區開發的AI,因爲這可能會導致其部分傳統文化流失。
除了LatamGPT,聚焦於其他文明的AI模型也相繼湧現。例如東南亞的SEA-LION和非洲的UlizaLlama,它們都專注於各自的文化背景。
語言模型長期以來一直在影響着我們看待世界的方式。訓練數據和模型來源的多樣性或許有助於部分抵消當今世界的不平等現象。(作者寶琳·辛克爾斯,青木譯)