最近,生成式人工智慧毫無疑問是個熱詞。而隨著這項技術的發展,出現了用AI“復活”逝者的現象,尤其是未經親屬允許“復活”明星等公眾人物,當然這個“復活”是加引號的,更多指的是聲音和形象的再現。而由此帶來的感受和看法,卻是不一樣的。
從不同的聲音來看,大家爭論的對象,更多的是在未經親屬允許,對於明星等公眾人物的“復活”。對於親屬自己要求的,大家也在關心相關數據如何保護和使用的問題。
那麼,用AI“復活”逝者,究竟行不行?這項技術的使用邊界在哪兒?怎麼依法依規又安全地使用?在人工智慧大力發展之下,相關的法律法規如何更完善?我們一起關注。
用AI“復活”已故明星,是否涉及侵權?
中國政法大學數據法治研究院教授 張淩寒:對於死者人格權益的保護,包括肖像權、隱私權和名譽權,《民法典》已有相關規定,只是現在對於AI如何侵犯死者的權益,包括死者在AI技術之下“復活”,對相關權益的保護提出了一些新的挑戰。如果按照傳統的《民法典》規定,毫無疑問,沒有取得死者近親屬的同意,這樣是侵權的,我們可以通過事後侵權責任追究的方式來對其進行法律責任的規制。此外,在《網際網路資訊服務深度合成管理規定》當中,要求“深度合成服務提供者和技術支援者提供人臉、人聲等生物識別資訊編輯功能的,應當提示深度合成服務使用者依法告知被編輯的個人,並取得其單獨同意”。那麼很顯然粉絲如果想去“復活”明星的話,很難真正取得死者家屬的知情同意,那麼毫無疑問這就是一個侵權行為。
我國人工智慧領域的治理,有哪些成績?又有哪些短板?
中國政法大學數據法治研究院教授 張淩寒:我國的人工智慧治理現在是走在世界前列的,我國人工智慧治理的特點是小、快、靈。一個方法就是及時出臺一些具體的規章,能夠應對技術的快速發展,同時能夠解決新出現的問題。目前歐盟的《人工智慧法案》剛剛通過,美國在去年10月份也頒布了白宮行政令去規制人工智慧。中國已有的一些人工智慧的法規可以説是強制性的,同時速度是非常快的,也有一些符合中國本土特色的制度。但是即使如此,我們可以看到,現在對人工智慧的治理,相對還存在一些法律上的不足。比如大部分是以部門規章為主,這樣效力位階就比較低。另外,很多監管部門基於自己的監管職能去出臺部門規章,這樣可能就缺乏一個統籌協調的機制和視角。後續我們可能要做的工作就是讓這些部門的職能更好地協調,能夠讓它更好地落地。
人工智慧快速發展,如何讓規範和監管跟上,甚至走在前面?
中國政法大學數據法治研究院教授 張淩寒:讓監管和技術發展盡可能同步,聽起來似乎是一個不太可能完成的任務,因為人工智慧的技術發展非常之快。大家回憶一下,2023年這個時候,ChatGPT的用戶數量剛剛突破1億,現在我們又可以看到更多的人工智慧大模型出現在市場上。所以説人工智慧治理面臨的最大的困難,就是技術發展的快速性,以及技術發展和風險的不確定性。那麼如何讓監管更前進一步呢?我想我們可能更需要做的是讓産業發展,“讓子彈多飛一會”,看看人工智慧技術的發展,可能給社會和公民個人帶來一些什麼樣的危害。如何讓監管走到前面,我覺得比較穩妥可行的方法是始終劃定技術發展的紅線和底線,就是我們始終要求技術的發展不能突破國家安全、社會公共利益和公民個人權益保護的底線。
面對AI技術,哪些法律需要跟上?
眼下,人工智慧技術的迅速發展,也正在為社會創造更多的價值。然而,人工智慧在改變我們生活的同時,在應用中也出現了傳播虛假資訊、侵害個人資訊權益、數據安全等問題。比如,“AI換臉”,已經從娛樂蔓延到了詐騙,“AI歌手”,已經從娛樂涉及了侵權。新技術發展的同時,法律體系如何及時跟進?點擊視頻,了解更多資訊↓↓↓
AI“復活”技術,對服務提供者提出怎樣的約束和提醒?
中國政法大學數據法治研究院教授 張淩寒:我們其實對製作方的規範是非常多的,大家可以參見我國《網際網路資訊服務深度合成管理規定》,要求如果能夠提供生成音頻視頻的這樣一些深度合成的話,首先對於數據要有非常嚴格的安全管理,同時要盡到對於用戶的提示義務,就是每當用戶在去做一些上傳敏感的個人資訊,像人臉人聲去進行編輯的時候,要提醒需要取得相關個人的同意。但是同時也可以想見,對於這個平臺來説,或者這樣一個服務提供者來説,也是比較難的。因為有海量的用戶可能去生成一些這樣的內容。如果你要求它挨個去審核,它是不是經過了相關個人的同意,可能在體量上比較難。即使有難度,網際網路資訊服務深度合成的提供者,還是要承擔起監管的義務。首先在用戶協議方面,做好相關的提示工作。其次在用戶做這樣的事情的時候,比如説它上傳的是一些名人的敏感個人資訊時,很可能是沒有取得授權同意的,就做一些相關的遮罩和處理。
來源:央視新聞 | 撰稿:辛文 | 責編:俞舒珺 審核:張淵
新聞投稿:184042016@qq.com 新聞熱線:135 8189 2583