隨著AI技術應用越來越廣泛,觸碰到監管盲區的情況不可避免。AI行業應加快行業標準制定與自律規範建設;監管部門則應積極完善法律法規,為技術創新和應用劃清紅線、亮明底線。


近日,有網友運用人工智慧(AI)技術“復活”已故明星,併發布了相關視頻。視頻中的數字人擁有與已故明星同樣的相貌與聲線,儘管傳達的內容是善意和慰藉,但仍引發不小爭議,目前相關視頻已全部下架。


隨著AI技術的發展,以逝者數字形象為依託的虛擬“復活”成為可能。目前,為過世親友製作數字人形象已成為一門小眾産業,顧客只需支付百元至萬元不等,就可以製作出逼真度、互動程度不同的數字形象。


儘管可以為逝者的親友帶來安慰,但這種做法也面臨著法律風險。“復活”明星之所以受爭議,是因為製作者未徵得家屬同意,擅自使用已故公眾人物的形象與聲音資訊製成數字形象。民法典第994條規定,“死者的姓名、肖像、名譽、榮譽、隱私、遺體等受到侵害的,其配偶、子女、父母有權依法請求行為人承擔民事責任;死者沒有配偶、子女且父母已經死亡的,其他近親屬有權依法請求行為人承擔民事責任”。目前已有律師表示,未獲許可擅自製作他人AI虛擬視頻的行為涉嫌侵害當事人肖像權,即便不以盈利為目的,上述行為也可能構成侵權。


隨著AI技術應用越來越廣泛,觸碰到監管盲區的情況不可避免。為了讓技術更好地造福社會,AI行業應加快行業標準制定與自律規範建設;監管部門則應積極完善法律法規,為技術劃清紅線、亮明底線。可喜的是,近年來,我國出臺了相關監管法規,監管體系也進一步完善。去年,我國首份針對生成式人工智慧(AIGC)的監管文件《生成式人工智慧服務管理暫行辦法》發佈,對利用生成式人工智慧生成內容的真實準確、防止虛假資訊等提出要求。此前已實施的《網際網路資訊服務深度合成管理規定》也明確了深度合成內容的數據和技術管理規範,其中第14條指出,“深度合成服務提供者和技術支援者提供人臉、人聲等生物識別資訊編輯功能的,應當提示深度合成服務使用者依法告知被編輯的個人,並取得其單獨同意”。


關於AI技術的爭議遠不止於此。今年“3·15”媒體披露了不法分子運用數字生成技術換臉實施詐騙的行徑,其運用的技術恰恰與製作逝者數字人的技術相同。同樣的技術,運用得當可以撫慰人心,運用不當則成為侵害他人權益的“幫兇”。層出不窮的問題與爭議再次向人們展現了新技術在造福社會的同時,也會帶來新問題與新挑戰。我們應該以何種心態來看待新技術?相比因噎廢食,我們更應守住倫理與法律底線,對新技術善加引導,讓AI發揮出更積極的作用。


責任編輯:梁咏