當下,人工智慧已經滲透到消費者生活的方方面面。記者日前從北京市網際網路法院獲悉,該院審理案件情況分析顯示,涉人工智慧案件增長較快,糾紛類型也日益複雜化和多元化。該院在審理涉人工智慧案件時主要面臨三大司法挑戰。
一是技術應用複雜導致事實查明難。案件往往涉及對人工智慧的生成過程、演算法模型以及數據來源等進行司法審查,技術門檻高,事實查明難度大,對司法專業性要求高。例如,在北京網際網路法院審理的人工智慧標識案中,平臺運用演算法工具將用戶發佈內容判定為未標識的AI生成內容從而引發糾紛,該案中平臺既是演算法工具掌控方又是結果判斷方,法院判斷其平臺審查及處理結果是否有合理依據時需要探明其演算法決策邏輯,平臺需圍繞案件爭議事實以可理解的方式舉證或説明演算法運作機制、對可能出現的誤判是否採取了合理的救濟措施。
二是規則適配不足導致法律適用難。人工智慧領域規範性法律文件制定存在一定的滯後性,難以完全適應技術快速發展的新形勢,相關案件的司法裁判常常無法規可依、無先例可循。例如,在著作權領域,涉及AI文生圖、文生視頻、虛擬數字人等新型權益客體是否構成著作權法意義的作品,其著作權應歸屬於AI服務提供者還是使用者;大模型訓練對作品的利用在著作權方面如何定性等問題。在人格權領域,涉及自然人的人格權保護範圍是否涉及AI合成的虛擬形象、虛擬聲音;以人臉資訊作為模型應用深度合成技術是否侵犯個人資訊等問題。這些具體爭議需要法官充分發揮司法智慧,綜合法律原則、政策導向、價值衡量等進行合理裁判。
三是主體角色多元導致責任認定難。人工智慧産業鏈條複雜、上下游相互依存,案件往往涉及訓練者、開發者、服務提供者、使用者等不同角色,各方主體分工合作形成複雜關聯,影響法律責任的認定。例如,在北京網際網路法院審結的全國首例AI聲音權案中,原告主張侵犯其聲音權益的被告涵蓋錄音製品製作者、文本轉語音産品開發者、服務提供者以及雲服務平臺等人工智慧數據訓練、模型研發和技術服務鏈條下的眾多環節中的多個主體,如何理順相應的産業鏈條,在眾多主體中確定責任由誰承擔,既關涉個案公平正義的實現,又影響著相關産業能否健康有序發展。
針對預防化解涉人工智慧案件糾紛,北京網際網路法院提出四項建議:增強法律意識,明確自身行為邊界,依法維護自身合法權益;嚴格遵守技術倫理規範,確保數據和基礎模型來源合法;積極完善管理機制,強化人工智慧服務提供者主體責任;加強人工智慧監管協同合作,形成監管合力。
(責任編輯:柯曉霽)