分享縮略圖

分享到:
連結已複製
首頁> 智庫中國>

人工智慧立法的總則與主線

2024-06-03 15:35

來源:北京日報

分享到:
連結已複製
字體:

文 | 張淩寒 中國政法大學數據法治研究院教授、博士生導師

人工智慧時代已經到來,中國的《人工智慧法》的出臺還有多遠?從2023年初OpenAI的ChatGPT驚艷問世,到2024年初Sora再一次引起全球關注,技術發展的腳步日益加快,人工智慧正加速改變著産業、社會和世界。人工智慧已經成為當前國際技術競爭與規則競爭的關鍵領域。人工智慧立法是重點領域、新興領域、涉外領域的綜合立法,承載著“統籌推進國內法治和涉外法治”的使命。《人工智慧法》的制度設計既應注重“治當下”,還應兼顧“謀長遠”,具體制度的設計,需平衡發展和安全,對發展需求和安全隱患均予以考慮和回應。既應解決人民群眾、國際社會迫切關心的問題,也從宏觀上把握規制的尺度,特別是技術帶來的生産激勵、公平分配等問題。

第一,確立“立總則,留介面”的總體框架。《人工智慧法》如何容納和化解高度不確定性的諸多風險?這一問題可通過《人工智慧法》的框架體例來解決:以“總則式”為框架體例,以“廓主線”為主要內容,以“留介面”解決容量問題。首先,《人工智慧法》應確立“總則式”的框架體例,定位為人工智慧治理的提綱挈領制度。因為《人工智慧法》的重要性,現階段的《人工智慧法》的立法應參考《民法典》的立法經驗,採用“總則式”的立法體例。“總則式”體例的《人工智慧法》應確立人工智慧立法的立法目的、基本原則等,表達我國人工智慧治理的基本理念與基本立場。其次,《人工智慧法》應以“廓主線”為主要內容,主線是指人工智慧治理的基本框架脈絡。《人工智慧法》的基本框架脈絡可包括一般原則、促進發展、權益保護、安全義務、特殊應用場景、監督管理、國際合作、法律責任等若干板塊內容。最後,《人工智慧法》要“留介面”解決容量問題。一是處理領域立法與通用立法需要“留介面”。關於教育、醫療、金融等領域的諸多具體規則,只能交給專門領域立法解決,《人工智慧法》只能在有限條款中對特殊問題予以強化,此謂留足“領域介面”。二是處理現有制度與未來發展需要“留介面”。《人工智慧法》立法中,可預留授權的制度介面,將技術、要素與産品應用的規制部門確定,將位階較低的制度授權有關部門細化,在滿足一定的産業發展條件後,立法可改變對法律義務與責任的設置,當下的制度設計可預留未來變化的制度“授權介面”。

第二,設定合理的分類分級認定規則。依據風險進行分類分級管理是技術治理規則設定中普遍採用的原則,在歐盟的系列立法推動下,人工智慧依據風險分級管控已經成為各國監管普遍採取的手段。2023年歐盟《人工智慧法案》(AI ACT)將人工智慧風險等級劃為四類,並擴大了人工智慧高風險領域的分類範圍,將對人們健康、安全、基本權利或環境的危害考慮在內;對高風險人工智慧系統採取多項監管措施,並且新增規定了相關義務,體現了折中草案對於人工智慧監管趨勢趨嚴。但歐盟對風險的認定標準和監管成本過高,與我國立法的標準體系難以完全相容。風險規制既需反映當下迫切的治理需求,也需要留足應對未來發展與不確定性的空間。我國也確立了演算法、場景、主體、數據多個領域分級分類監管制度,但人工智慧的分級分類標準需做出針對性的制度安排。《人工智慧法》不宜在現階段技術産業發展走向尚不十分明朗的情況下劃定不同級別,而應劃定“紅線底線”以滿足當下監管需求,併為不確定性的發展留足空間。歐盟對風險的認定標準包括處理應用場景、影響權利的類型等,這與我國國內立法的話語體系難以相容。我國可考慮建立關鍵人工智慧特殊監管制度,在人工智慧一般監管要求基礎上,實行重點監管,並可以與我國已有的關鍵資訊基礎設施保護制度實現對接。關鍵人工智慧産品與服務包括:涉及公共通信和資訊服務、能源、交通、水利、金融、公共服務、電子政務、國防科技工業等重要行業和領域的;對公民的生命、自由、人格尊嚴等重大人身權益有重要影響的;在算力、參數、用戶規模等方面達到一定級別的通用人工智慧系統。立法既應與已有的關鍵資訊基礎設施制度對接,也應從重大權益影響角度進行制度覆蓋,並對未來可能造成系統性生存性風險的人工智慧治理予以回應。

第三,完善人工智慧動態監測、預警、響應機制。人類與人工智慧未來將長期共存,技術與風險的不確定性將是技術治理的常態。應對這種“常態”,應在《人工智慧法》中建立人工智慧風險的動態監測、預警、響應機制。如,國家設立人工智慧專家委員會,定期通報人工智慧技術的發展、部署和應用,並且動態監測風險、共用風險評估、實施安全事件報告、建立應急響應機制。這一系列風險監測、預警、共用、報告和響應的體制機制將成為能夠長遠監管人工智慧風險的制度。再如,人工智慧産品和服務的研發者、提供者應當建立人工智慧安全事件決策和處置流程,對於引起社會輿論、産生廣泛社會影響的人工智慧安全事件,應當及時向主管部門報告。這一制度將有助於公眾更好地了解人工智慧,並推動國際社會就人工智慧進化的速度和影響達成共識,逐步建立標準,以更加科學地衡量人工智慧對社會生活各個領域産生的影響。

第四,對當下和長遠發展的人工智慧治理共性問題做出制度安排。一是從當下來看,人工智慧與智慧財産權的緊張關係成為世界各國立法面臨的難題。在立法層面,歐盟、美國、日本等加快了推進人工智慧版權立法的進程。在司法層面,國內外已有多起有關人工智慧生成內容的可版權性、訓練數據版權侵權等訴訟。在輸入端,訓練數據的獲取與使用始終面臨合法性問題,國內外有關訓練數據版權侵權的案件已經呈現出井噴局面,各方對於訓練數據能否構成合理使用持不同立場。在輸出端,關於人工智慧生成內容的可版權性問題引發了學界廣泛的討論,“國內AI生成圖片著作權侵權第一案”的裁判更是引發了各界關注。基於我國當下“世界領先的追趕者”角色,立法應儘快協調人工智慧産業發展與智慧財産權保護制度,為技術産業高品質發展創造條件。二是從長遠來看,通用人工智慧初現端倪,治理具有比人類計算能力強大的技術系統成為各國必須通力合作的議題。《人工智慧法》宜預留通用人工智慧的規制條款,對於未來可能出現的非限定任務的、多領域通用的強大人工智慧系統設置更高的安全規範。

第五,根據現行技術産業發展階段探索新型監管制度。如各方廣泛關注的沙盒監管制度,是允許企業在真實的市場環境中測試産品、服務或商業模式,同時又能將新技術潛藏的風險控制在一定範圍。美國已經在人工智慧金融、自動駕駛等領域相繼開展沙盒監管測試,並鼓勵參與企業在沙盒內開展紅隊對抗、自律管理等活動。歐盟《人工智慧法案》第五編專門規定了沙盒制度,細緻規定了沙盒制度的運作和相應的監管措施,同時還特別強調中小企業使用沙盒的優先準入和費用減免制度,被認為是歐盟保護本土企業、增強産業競爭力的重要制度。為支援人工智慧創新發展,相關部門可以探索人工智慧産品與服務監管的試點機制,設定監管試點技術的準入條件、試點範圍與期限、試點的運作規則等,明確試點目的、定期與試點企業展開技術交流和治理經驗共用,為人工智慧研發提供必要測試環境的同時提高監管機關自身的監管能力。對初創企業、小微企業等難以獲得專用設施、缺乏財力人力的市場主體,可以適當減輕或豁免其進入試點的條件。

筆者確信,中國應當有一部《人工智慧法》來彰顯立場,為人工智慧技術産業發展保駕護航。也只有在法律這一位階層面制定人工智慧法律制度,才能夠統籌協調並確立國家層面人工智慧治理制度,真正實現立法先導,發揮法治在人工智慧發展治理領域固根本、穩預期、利長遠的基礎性作用。


【責任編輯:申罡】
返回頂部