人工智能全球監(jiān)管迎來重磅一周!

2024-05-20 11:41:54

從一份公約到一次政府間對話首次會議,從一場峰會到一份法規(guī)的簽署,前后兩周內,人工智能(AI)的全球治理正被緊鑼密鼓地提上各方議程。

21日,韓國將和英國共同在首爾主辦第二屆人工智能安全峰會,大會將重點討論人工智能安全問題,并探討最先進的人工智能模型的潛在能力。同日,歐洲理事會將通過歐盟《人工智能法案》,這意味著相關規(guī)則將于6月開始實施。

而在剛剛過去的周五(17日),歐洲委員會(The Council of Europe)通過了一份AI公約,并稱這是有史以來AI領域首個具有法律約束力的國際條約,并對非歐洲國家開放簽署。

另據(jù)中國外交部美大司消息,當?shù)貢r間2024年5月14日,中美人工智能政府間對話首次會議在瑞士日內瓦舉行。雙方圍繞人工智能科技風險、全球治理、各自關切的其他問題深入、專業(yè)、建設性地交換了意見。

一直以來,如何推出能被廣泛接受的人工智能治理原則挑戰(zhàn)重重。意大利經濟發(fā)展部前副部長、意大利獨立黨外交及國際貿易負責人杰拉奇(Michele Geraci)直截了當?shù)鼗卮鹫f,他認為無法對AI技術實現(xiàn)全球監(jiān)管。

然而,從經合組織(OECD)到聯(lián)合國,國際層面始終在努力推進這一議程,并找到監(jiān)管的“公約數(shù)”。金杜律師事務所合伙人吳涵律師告訴第一財經,從監(jiān)管內容來看,中國、美國和歐盟在一定程度上均具有共性。

AI治理的雙多邊討論“多點開花”

歐洲委員會秘書長佩奇諾維奇(Marija Pej?inovi?)介紹,該機構17日通過的《人工智能框架公約》提出了一個法律框架,涵蓋了AI系統(tǒng)的整個生命周期,旨在促進負責任的技術創(chuàng)新、利用AI的益處,并解決可能的技術風險。

與今年3月13日在歐洲議會通過的《歐盟人工智能法案》相同,該公約對人工智能系統(tǒng)的設計、開發(fā)、使用和退役采用基于風險的方法,要求仔細考慮使用人工智能系統(tǒng)的任何潛在負面后果。

而時隔兩個月,歐盟《人工智能法案》也將于21日在歐洲理事會簽署,這是全球首部AI領域的全面監(jiān)管法規(guī),違反法規(guī)的相關方將被追究責任。為了幫助歐洲企業(yè)為這一法案的實施做好準備,歐盟委員會還制定了《人工智能契約》。該契約旨在幫助領先企業(yè)測試,并與其他公司分享其AI解決方案,以迎接即將到來的監(jiān)管框架。

吳涵稱,值得注意的是,從《通用數(shù)據(jù)保護條例》(GDPR)到《數(shù)字服務法案》《數(shù)字市場法案》,再到歐盟《人工智能法案》,歐盟在數(shù)字經濟監(jiān)管上的創(chuàng)新不僅僅體現(xiàn)在具體的監(jiān)管措施,其規(guī)則輸出的“布魯塞爾效應”愈發(fā)凸顯。從GDPR等可以看出,歐洲的數(shù)據(jù)監(jiān)管規(guī)則一定程度上不僅輸出了部分監(jiān)管工具(比如GDPR下的標準合同條款),更嘗試在價值觀等方面獲得更多國家的共識。

除歐洲外,根據(jù)外交部美大司消息,在中美人工智能政府間對話首次會議上,雙方介紹了各自對人工智能技術風險的看法和治理舉措以及推動人工智能賦能經濟社會發(fā)展采取的措施。中方強調人工智能技術是當前最受關注的新興科技,中方始終堅持以人為本、智能向善理念,確保人工智能技術有益、安全、公平。中方支持加強人工智能全球治理,主張發(fā)揮聯(lián)合國主渠道作用,愿同包括美方在內的國際社會加強溝通協(xié)調,形成具有廣泛共識的全球人工智能治理框架和標準規(guī)范。中方就美方在人工智能領域對華限制打壓表明嚴正立場。

在全球層面,第二屆人工智能安全峰會將于21日在首爾舉辦。去年11月舉行的第一屆峰會發(fā)布的《布萊奇利宣言》稱,AI的許多風險本質上是國際性的,因此“最好通過國際合作來解決”。與會國家和地區(qū)同意協(xié)力打造一個“具有國際包容性”的前沿AI安全科學研究網絡,以對尚未被完全了解的AI風險和能力加深理解。

中美歐在AI治理上的共性與差異

早在2019年,OECD就首次發(fā)布了其人工智能原則。這些原則已成為全球人工智能政策制定的參考點,歐盟、美國和聯(lián)合國在其立法和監(jiān)管框架中都使用了經合組織對人工智能系統(tǒng)和生命周期的定義。

但在“定義”之外,對于全球治理能否實現(xiàn)這個問題,歐洲復興開發(fā)銀行前行長查克拉巴蒂(Suma Chakrabarti)表示,全球數(shù)字治理的核心問題是各國政府能否統(tǒng)一標準,以實現(xiàn)數(shù)字基礎設施的跨國互操作性。但其中存在很大的障礙,例如不同國家和地區(qū)的公民對政府和私營部門處理數(shù)據(jù)的信任程度差別很大。

“這些信任缺失的挑戰(zhàn),無論是個人與政府之間,還是政府與政府之間,都使全球治理變得復雜?!彼J為,全球治理應該從簡單的、有共識的領域切入。

查克拉巴蒂解釋:“加州大學伯克利分校計算機科學教授拉塞爾(Stuart Russell)對此有一個關于醫(yī)藥業(yè)的形象類比。藥品的制造商需要證明其藥物能夠提供公共利益,無論在美國、中國還是英國,對有效藥物的需求已達成普遍共識,不存在政治爭議。我們可以將類似的框架應用于人工智能,比如強制要求開發(fā)人工智能技術的公司證實其對公眾的益處。此類評估應公正進行,確保評估在技術上保持中立?!?/p>

那么,全球主要經濟體對人工智能治理持有怎樣的觀點,又有何共性?

吳涵介紹,從《人工智能法案》等相關數(shù)字立法來看,歐盟均以事前監(jiān)管為重點,構建涵蓋事前、事中和事后的全鏈條監(jiān)管體系。

這至少折射出兩個方面的信號。一方面,歐盟貫徹“以風險為進路”的監(jiān)管模式,無論是對個人數(shù)據(jù),數(shù)字服務企業(yè)還是AI系統(tǒng),均整合了規(guī)制對象的相關特征,對特定規(guī)制對象進行分類,并施加差異化的監(jiān)管規(guī)則。另一方面,GDPR和《數(shù)字服務法案》《數(shù)字市場法》等幾部歐盟法案均是歐盟的正式法律,具有強行性法律效力,并非市場主體可以任意選擇遵循或不遵循的倡導性提議。

在AI技術更迭迅速、風險具有不確定性的現(xiàn)階段,吳涵表示,我國和歐盟均采取了重事前監(jiān)管、兼顧事中和事后監(jiān)管的全生命周期監(jiān)管模式。

比如,歐盟要求高風險AI系統(tǒng)提供者在將其系統(tǒng)投放市場或投入使用前開展符合性評估,并加貼CE標識;而結合《生成式人工智能服務管理暫行辦法》與實踐的監(jiān)管動態(tài),我國生成式人工智能服務領域則形成了由算法備案和大模型評估構成的“雙備案”制,體現(xiàn)了我國的事前監(jiān)管要求。

但吳涵稱,從AI立法進展來看,盡管在事前監(jiān)管上有相同理念,相較于歐盟歷時三年制定的《AI法案》,我國采取了“小切口法”的立法策略,深入特定應用領域提出監(jiān)管要求,體現(xiàn)了我國在AI領域中的“敏捷治理”理念。

“與此同時,我國也正在積極推進《人工智能法草案》的立法工作。此外,雖然我國和歐盟在AI治理領域均采取了風險分類分級的手段,但基于彼此具體社會情境的現(xiàn)實差異與法律基礎等的差異,我國與歐盟對AI的風險認知框架存在不同?!眳呛f。

但美國的AI治理思路明顯存在差異。吳涵稱,在AI治理文件方面,美國雖然也開始了一定的AI治理規(guī)則制定工作,但大多為政策或指引,正式立法嘗試較少,且暫未在美國范圍形成內具有廣泛適用性與法律效力的統(tǒng)一監(jiān)管規(guī)則,倡議性文件居多。在治理模式上,現(xiàn)階段,美國主要由各監(jiān)管部門開展自上而下的分散監(jiān)管,這與歐盟制定《AI法案》的思路也存在較大的差異。

吳涵認為:“盡管存在諸多差異,但根據(jù)目前美國公開發(fā)布的AI相關文件,如美國國會人工智能小組發(fā)布的《人工智能基礎模型透明法(草案)》,與中國和歐盟相似,美國也重點關注AI系統(tǒng)的透明度披露、訓練數(shù)據(jù)治理、知識產權保護、內容安全與倫理等。在監(jiān)管內容方面,美國與中歐在一定程度上均具有共性?!?/p>

(來源:第一財經)

責任編輯:張嘉怡

掃一掃分享本頁