6月12日,最高人民法院發佈6個典型案例,旨在加強對利用網路、資訊技術侵害人格權的否定和整治,強化人格權司法保護力度。其中,“殷某某訴甲公司、乙公司等人格權糾紛案”“彭某某訴某軟體運營公司肖像權糾紛案”均涉及利用AI技術侵權的問題。
近年來,網際網路和AI技術快速發展的同時,由此引發的侵害人格權案件也日漸增多。對此,各地法院積極探索相關裁判規則,通過案件裁判為新業態、新技術劃定應用邊界,結合社會治理撐起人格權的法律保護傘,讓群眾的人格權益得到充分尊重和保護。
劃定人格權保護紅線
2024年4月,北京網際網路法院對“殷某某訴甲公司、乙公司等人格權糾紛案”進行一審宣判。被告使用原告聲音,並開發案涉AI文本轉語音産品未獲得合法授權,構成侵權,法院判決其書面賠禮道歉,並賠償原告各項損失25萬元。
本案中,人民法院依法認定,聲音作為一種人格權益,具有人身專屬性,未經權利人許可擅自使用或許可他人使用錄音製品中的聲音構成侵權,為新業態、新技術的應用劃定了行為界限,有助於規範和引導人工智慧技術沿著為民、向善的方向發展。
近年來,人民法院通過對一起起相關案件的審判,逐步明確AI技術在利用數據資訊時有所為、有所不為,確保人格權益保護紅線“劃得實、守得住”,彰顯了人民法院的司法擔當。
2022年4月11日,最高法發佈民法典頒布後人格權益司法保護典型民事案例,其中有一起涉及AI軟體擅自使用自然人形象創設虛擬人物構成侵權的典型案例。
被告運營的一款智慧手機記賬軟體中,用戶可自行創設或添加“AI陪伴者”,可設定其名稱、頭像等,並設置了“調教”功能,用戶可讓“AI陪伴者”與自己産生互動。
本案原告何某係公眾人物,未經其同意,該軟體出現以原告姓名、肖像為標識的“AI陪伴者”,並通過演算法應用,允許用戶上傳大量原告的照片,製作與原告互動的內容。
“被告不僅擅自使用了原告何某的肖像、姓名,更通過演算法構建其性格、口頭禪等‘人格畫像’,我院認定該行為屬於‘系統性剝奪自然人對自身人格形象的控制權’,應當適用一般人格權加以保護。”北京網際網路法院綜合審判三庭法官毛春聯説,此案中,AI技術的“非中立性”逐漸顯現,技術服務與內容服務的區分界限被打破,當前不少網路服務者雖然只提供AI技術,卻以“技術服務”之名行“內容服務”之實。
為查明AI技術侵害人格權益的涉案技術的基本原理、設計邏輯、運作過程,北京網際網路法院建立了技術調查官制度,通過技術調查官對AI的專業解讀,確保法官準確理解技術,作出公平裁判。
據杭州網際網路法院法官賴粵旭介紹,AI技術的開發和應用應符合人類社會基本的道德價值體系,使用者一旦選擇將AI技術用於侵害他人合法權益,法院就可根據被侵害主體所主張的侵權者,進一步通過查明侵權賬號的實名註冊者、實際控制者等方式,判定被侵害主體所主張的對像是否為侵權主體。
促進AI技術規範使用
2023年5月,上海易某網路科技有限公司開發了一款某短視頻平臺小程式“某顏”,使用AI視頻合成演算法幫用戶實現“一鍵換臉古風漢服”。陳女士在某短視頻平臺上刷到這款小程式,發現裏面有十余條自己的古風原創作品,隨後向上海市嘉定區人民法院起訴。
訴訟中,易某公司意識到相關行為可能構成侵權,主動履行了相關AI演算法備案手續,重新上架小程式。嘉定區法院發出司法建議,提示企業強化依法經營意識,注重素材合法性審查、內容生成合法性審查等。易某公司積極響應,認真整改,承諾將規範經營。陳女士最終撤回起訴,雙方達成和解。
為平衡好技術創新與人格權益法律保護的關係,人民法院積極發揮職能作用,引導相關企業在AI技術應用中樹立守法意識,推動行業自律,構建良好有序的AI發展生態。
“我院在相關案件的處理過程中,會綜合考慮行為人和受害人的職業、影響範圍、過錯程度,以及行為的目的、方式、後果、事後採取的措施等因素,合理認定技術開發和應用企業應當承擔的民事責任,在充分填補權利人損失的前提下避免因過度苛責抑制創新發展。”廣州網際網路法院相關負責人説。
同時,各地法院積極與多方主體合作,力求在保護人格權益的同時,促進AI技術的規範使用。
北京網際網路法院多次赴網際網路頭部企業調研,組織專家學者進行座談研討,深入了解産業發展情況,探討AI技術的法律邊界與倫理規範,推動企業建立自律機制;杭州網際網路法院深入走訪數字經濟的頭部企業,與相關産業的理論學者、實踐專家開展專題研討,從産業端學習研究當下AI産業的發展模式和發展趨勢,聚焦AI産業的法律適用邊界,積極引導相關企業加強AI技術研發與應用的風險防控機制。
針對AI換臉、AI合成聲音等前沿侵權行為,北京、杭州、廣州等網際網路法院及時發佈典型案例,樹立裁判規則,明確行為界限,引導公眾依法正確使用AI技術,增強群眾保護自身人格權益的法律意識。
厘清公共與個人數據
“未來,生成式AI可能會引發隱私或個人資訊洩露問題。大型生成式AI需要大量數據作為參數,AI産品的提供者在訓練AI産品時很可能會運用大量沒有合法來源的數據資訊,這就可能帶來一些侵害隱私和個人資訊的新形式。”中國人民大學法學院教授王利明告訴《法治日報》記者。
“可以預見,在AI時代,人格權的客體可能會涵蓋數字化人格表徵,諸如對應實體人物的虛擬形象,這些虛擬人物形象的實體權利人可能會對其虛擬形象主張虛擬人格權益。此外,AI的發展需要大量公共數據的支撐,在公共數據的共用開放以及授權經營中,最核心也最複雜的問題就是如何厘清公共數據和個人數據,防止侵害個人資訊權益和隱私權等個人權益。”成都網際網路法庭法官吳婷補充道。
賴粵旭告訴記者,面對AI技術帶來的新挑戰,杭州網際網路法院將進一步關注AI應用新業態,深化研究、探索新類型案件的裁判規則,確保相關案件中適用法律的公平性和準確性。
“我院將與相關部門形成合力,及時反映司法實踐中發現的新情況,為規範AI發展貢獻司法智慧,通過加強協作共治,共同減少和避免AI技術發展過程中出現的新風險。”廣州網際網路法院相關負責人説。
在王利明看來,隨著AI運用的場景越來越寬泛,由此帶來侵害人格權益的風險必須在法律上予以有效應對。
“一方面,不能因為新的AI技術可能引發侵害人格權益的風險而對AI服務提供者課以過重的責任,從而妨礙技術的創新。另一方面,也應要求服務提供者盡可能採取必要措施,例如將AI産生的資訊明確標識,預防損害的發生和擴大。”王利明建議道。
(責任編輯:王擎宇)