推進人工智慧治理國際合作

2024-07-26 18:24:34.0      來源:光明日報

當前,世界正處於迅猛的技術變革中,人工智慧技術已經成為未來數字經濟轉型升級的核心要素。人工智慧在帶來巨大時代機遇的同時,也會帶來威脅全球穩定和破壞人類價值觀的風險,其治理一直是重點關注的問題,加強國際合作構建人工智慧治理圖景至關重要。

人工智慧風險挑戰與發展機遇並存

隨著通用人工智慧技術突破,人工智慧的應用場景逐漸擴大,難以評估的風險也成倍增加。國際社會需要給予人工智慧一個密切審慎觀察的空間,治理規則的制定需要在技術和社會的緊密互動中保持靈活性,隨時根據實際情況校準政策,從而有效且前瞻性地解決問題,推動人工智慧技術的健康發展和數據要素的跨境流動。

目前人工智慧技術主要帶來三類問題。一是資訊安全問題。人工智慧需要實時更新海量數據用於模型訓練。在個人隱私領域中,相關企業、平臺尚未達成遵循知情同意原則的共識,存在越權使用等現象。用戶在使用人工智慧技術時,可能因缺乏相關意識導致個人隱私數據洩露。二是虛假資訊問題。儘管技術中立,但人為投放不實消息或片面事實可能導致人工智慧模型産出虛假資訊。三是數字鴻溝問題。人工智慧具備高效的資訊檢索和整合能力,雖然為人們的工作和生活提供了極大方便,但其産出的真實性和準確性並不牢靠。因此,資訊甄別、自主決策能力強的使用者將更善於使用這項工具,而盲從的使用者則可能為其所害。隨著兩者使用技術的差距不斷沉積,數字鴻溝也就此加深。

因此,如何在發展與安全之間取得平衡,推動人工智慧為世界釋放更多“智慧紅利”,需要國際社會共同參與。面對上述困難,各個國家和地區應積極落實全球發展倡議、全球安全倡議、全球文明倡議,共同促進全球人工智慧健康有序安全發展,推動人工智慧技術造福全人類。

人工智慧治理的國際合作實踐

截至目前,眾多國際組織和機構發佈了人工智慧治理相關文件,為全球人工智慧治理提供正能量,注入新動力。早在2018年,歐盟委員會提出《人工智慧的倫理準則》,強調人工智慧的應用必須符合人類價值觀和倫理原則,並建議採取措施加強人工智慧的監管和透明度,促進其可持續發展。2019年,聯合國教科文組織發佈了《人工智慧倫理問題建議書》,積極思考人工智慧倫理問題,推動人工智慧倫理原則在全球範圍內的傳播與實施。同年,二十國集團(G20)發佈《G20人工智慧原則》,強調人工智慧的倫理和社會責任。2023年11月,首屆包括我國在內的28個國家共同達成的《布萊切利宣言》正式發表,同意通過國際合作,建立人工智慧監管方法。這一宣言是全球第一份針對人工智慧這一快速發展的新興技術的國際性聲明,旨在關注對未來強大人工智慧模型威脅人類生存的擔憂,以及對人工智慧當前增強有害或偏見資訊的擔憂。

歐洲國家持續推動國際人工智慧治理實踐。2023年6月,歐盟推出全球首部人工智慧法案,對生成式人工智慧企業提出更高的透明度要求。同月,時任英國首相蘇納克在訪美期間和美國總統拜登發表《大西洋宣言》,同意在人工智慧等領域加強合作。同年10月,法國、德國、義大利在義大利羅馬舉行高級別會議併發表聯合公報稱,法德意三國正在制定人工智慧戰略願景,並出臺人工智慧監管法規來管控風險。2024年5月29日,歐盟委員會成立人工智慧辦公室,旨在促進人工智慧的發展、部署和使用,在降低風險的同時促進社會經濟效益和鼓勵創新。該辦公室將在實施歐盟《人工智慧法》的過程中發揮關鍵作用,努力促進可信人工智慧的發展和創新,並使歐盟在該領域處於領先地位。

推進人工智慧治理,中國在積極行動。2021年12月,中國向聯合國《特定常規武器公約》第六次審議大會提交《中國關於規範人工智慧軍事應用的立場文件》。2022年11月又向聯合國《特定常規武器公約》締約國大會提交了《中國關於加強人工智慧倫理治理的立場文件》。這些主張堅持維護人類福祉,堅守公平正義,為解決全球人工智慧治理難題貢獻了中國智慧和中國方案。2023年10月,我國在第三屆“一帶一路”國際合作高峰論壇上正式發佈《全球人工智慧治理倡議》,圍繞人工智慧發展、安全、治理三個方面闡述人工智慧治理的中國方案,為人工智慧的開發與安全提出建設性的解決思路和發展藍本。

構建國際人工智慧治理的合作框架

人工智慧的發展軌跡關乎全體人類命運,發展和治理人工智慧已成為全球各國面臨的共同課題。未來的人工智慧的發展在基礎研究、産業研發、應用服務等多個領域將涌現出一批主要和重要的中心與節點,並呈現多中心發展的趨勢,這些主要節點之間將高度互聯、深度協作,共同帶動世界人工智慧的發展。

一是加強國際合作,保持開放心態進行全球性討論。各國通力合作,避免誤解,加速實現人工智慧技術及其應用的全球化發展,努力提升人工智慧技術的安全性、可靠性、可控性、公平性,增進全人類福祉。全球協作不僅在於對長遠議題開展聯合研究與風險防範,更在於防止人工智慧在技術發展尚存極大不確定的情況下惡性競爭、誤用、濫用甚至惡用。

二是構建兼顧安全與發展的人工智慧監管框架,通過細化立法領域、拓寬管轄範圍、提高法律效力層級等方式劃定原則底線。堅持以技管技,強調技術性調整手段的重要性,積極發展促進人工智慧安全相關技術,以人工智慧技術促進人工智慧安全開發;堅持法治化推進,人工智慧治理的法治化是確保人工智慧技術安全有序發展的重要保障,需要建立健全相關法律制度,明確各主體、各環節責任義務,關注權利保護。

三是建立安全與發展兩輪並重的治理觀念。一方面,堅持倫理先行,前瞻研判人工智慧倫理風險,注重風險預防,加強源頭治理,確保人工智慧健康發展;實施全流程監管和分級分類監管機制,針對人工智慧技術研發、測試、應用等多個技術環節,明確相應的安全技術標準,輔之以科技倫理審查機制,從各個環節預防和控制技術安全風險。另一方面,針對人工智慧應用的不同場景、不同風險程度,設置不同的監管機制,在保障人工智慧技術應用安全的同時,最大化預留人工智慧産業創新空間。

(作者:王 鵬、丁立江,均係北京市習近平新時代中國特色社會主義思想研究中心特約研究員)

分享到:
作者:王 鵬 丁立江