“媽,8000元不夠,給我轉1.5萬元吧。”一位母親正和女兒視頻聊天,聽著在外地上學的女兒在視頻裏撒嬌抱怨“生活費不夠用了”,她心疼不已打算立刻給孩子轉賬。就在這時,家門打開了,她的“真女兒”走了進來。而另一頭,視頻裏的“假女兒”還在央求媽媽“給生活費”。
這是一則AI反詐視頻。在這條反詐視頻評論區中,不少網友反映自己也有過類似的被騙經歷,“騙子來電,聲音容貌和我家人一模一樣”。
《法治日報》記者近日調查發現,AI換臉擬聲技術已成為簡單易操作的“低門檻”技術,只需擁有聲音與照片等“素材”,借助軟體即可瞬間實現“AI克隆”。實踐中,一些不法分子試圖利用AI換臉擬聲技術實施違法犯罪活動。
近日,國家金融監督管理總局金融消費者權益保護局發佈防範新型電信網路詐騙風險提示,將“AI換臉擬聲”納入其中,作為專門類詐騙。據介紹,AI換臉擬聲類金融詐騙,多為不法分子以“網店客服”“行銷推廣”等為藉口聯繫消費者,採集發音、語句或面部資訊,之後利用“換臉”“擬聲”等技術合成消費者虛假音頻、視頻或圖像,模擬他人聲音或形象騙取信任,誘導其親友轉賬匯款等。
受訪專家指出,擅自使用他人資訊製作換臉擬聲視頻涉及多重法律風險。需要進一步完善相關領域的立法,加大執法力度,秉持包容審慎的態度平衡技術的安全與發展。
幾乎沒有使用門檻
輕鬆實現換臉擬聲
“只需要一段語音,幾乎完美還原音色語氣,今天就教大家如何簡單、快速複製一個人的聲音。”在某社交平臺上,一名科技博主發佈了一段教學視頻,向網友介紹如何用AI精準克隆人聲。
“只需要準備一段25秒的聲音,構建聲音進行訓練,訓練完畢後就可以輸入想要的文本進行語音合成。”教學視頻中,這名博主用時不到1分鐘,就把AI擬聲的原理講解得清清楚楚,與此同時,一段“孫悟空”的擬聲就這樣誕生了。他輸入了一段文本,AI便能用與“孫悟空”近乎一模一樣的聲音語氣念出來。
記者按照視頻中的指示打開連結發現,這個AI擬聲工具無需下載,也不收費,是可以免費使用的網頁,而如此製作出來的音頻可以公開供他人使用,也可以導出使用。記者在網頁中分別上傳了5種不同聲音,經過訓練,這5種聲音被幾乎無差別地成功“克隆”,能夠用來讀出任意文案。除此之外,用戶還能在輸入文案時加入情緒的描述,使得AI擬聲如同能夠“談笑風生”的真人。
除了AI擬聲,AI換臉也成了“熱門”技術。在一些圖片處理軟體中,“一鍵AI換臉”能瞬間將圖片甚至視頻中的臉毫無痕跡地置換成另一張臉。
“一天能做100個原創作品,這個工具太強了。”在社交平臺某AI科技博主的短視頻裏,該博主向粉絲介紹一款視頻換臉軟體。螢幕中,博主所展示的兩段視頻中的女生除了五官不同,其餘的外貌、穿著及動作完全一致。視頻中,女孩不論如何轉身或做出任何表情,面部都沒有産生畸變。“一鍵就能高清換臉,讓你們變成另外一個人。”
記者嘗試了該博主所推薦的軟體及操作方法,成功將一段視頻中的人臉換成了另一張人臉。即使是“技術小白”,上手也幾乎毫無門檻。記者瀏覽發現,這樣類似的視頻換臉軟體還有許多,除了進行視頻剪輯換臉之外,部分軟體在技術操作之下還能實現實時換臉擬聲。
換臉軟體明碼標價
鮮有賣家詢問用途
記者在某社交平臺檢索“AI換臉”時,發現頁面彈出了“無痕換臉,只需5元到20元”的廣告。在評論區中,有不少買家詢問能否提供視頻換臉擬聲服務,也有不少賣家混雜其中尋找“客戶”。記者在評論區留言諮詢後,很快便收到幾名賣家的回復或私信。
“需要自定義AI換臉軟體嗎?”一名賣家通過私信聯繫記者,推銷其軟體。記者進一步詢問賣家該軟體是否能夠實時視頻換臉擬聲,賣家稱“任何社交平臺都能夠支援實時”。
隨即,該賣家向記者展示了其在社交平臺上發佈的換臉演示。在換臉演示中,一名男子以“英俊的臉龐”出現在視頻頁面中,而這張“英俊的臉”則是換臉後的“假面”,該賣家配以文字“網戀神器,直接變小哥哥,換個面貌可以去找小姐姐網戀了”。
為了讓記者更真切地體會到換臉技術的高超,該賣家提出可以“打個視頻看效果”。記者打開某社交軟體視頻通話,只見視頻畫面裏是與“換臉演示”中樣貌不同的另一名男子。該賣家稱,二者都是自己通過換臉軟體製作的。在視頻中,他展示了喝水、捂嘴、捏臉、捂臉等多個動作,“做動作是沒問題的,只要打開視頻前把這個軟體打開就可以了”。
在交流時,賣家不斷向記者強調其所售賣的技術操作難度不大,且在視頻時“看不出破綻”。價格方面,其介紹299元可以裝好軟體,操作一遍演示;如果支付599元,則可以一對一教學,“教會為止,軟體可以永久不限次數地使用”。
調查中,記者還收到了另一名賣家的“推銷”,其同樣向記者推薦了自定義AI換臉軟體。該賣家稱,軟體分為手機版和電腦版,手機版的價格為40元,電腦版為69.9元,兩者均可以永久不限次數使用。當記者問及電腦版與手機版為何存在價格差異時,該賣家告訴記者,電腦版的套裝軟體含一鍵“AI去衣”功能,即可以把照片上的衣服脫下來。
在調查過程中,記者注意到,類似提供“自定義AI換臉擬聲軟體”的賣家還有不少,他們大多在社交平臺上尋找買家。對於買家購買技術的目的,有些賣家毫不在意,甚至會將“去衣”等擦邊功能作為一大賣點進行推銷。
除此之外,記者還發現,在某二手交易平臺上,也有賣家出售相關技術。比如有賣家在産品描述中這樣寫道:“有手就可以,拍下就發完整視頻資料和製作方法,可批量搞,虛擬資源能夠變現。”
“有些人會利用技術去做違法犯罪的事情,尤其是在近幾年,這種技術更容易使用了。”一名業內人士向記者透露,他就曾接到過一些“出格”的客戶需求,“有人聯繫希望我們能用AI克隆技術突破銀行和一些支付軟體的刷臉功能。還有人打離婚官司,要我們用擬聲作偽證。如果沒有問清楚,換臉擬聲很容易淪為一些不法分子詐騙、犯罪的工具。”
及時規定使用原則
增強個人反詐意識
“如果不是做深度訓練的話,目前換臉擬聲的技術門檻是比較低的。”南京“超級頭腦”工作室(一家AI工作室,主要經營“AI數字生命”業務)創始人張澤偉告訴記者,目前非技術人員也可以通過軟體進行較為簡單的換臉擬聲,使得“假人假聲”的合成視頻、圖片可能被用於違法違規用途,而一些年紀稍大的長輩很難分辨出來。
北京大成(深圳)律師事務所律師陳翠説,擅自使用他人肖像製作換臉視頻可能侵犯他人肖像權、隱私權。根據民法典第一千零一十九條,未經本人同意,不得以營利為目的使用他人肖像。“換臉視頻即便不以營利為目的,也可能因未獲授權而侵犯肖像權。同時,未經許可傳播涉及含有個人隱私的視頻會侵犯個人隱私權。”
陳翠進一步補充道,若換臉擬聲視頻內容不當或引發公眾誤解,可能會構成名譽權侵權。如果視頻中包含他人享有著作權的內容(如影視片段),則可能構成著作權侵權。同時,未經授權製作和傳播換臉視頻還可能違反網路安全法、數據安全法等相關法律規定,面臨行政處罰或刑事責任。
陳翠認為,目前,我國在相關領域仍缺乏系統性立法,涉及人工智慧的法律規範較為分散。同時,人工智慧倫理規範尚未形成統一標準,為有效遏制此類技術被用於違法犯罪,需進一步明確其應用邊界。
中國傳媒大學文化産業管理學院法律系主任鄭寧認為,我國《網際網路資訊服務深度合成管理規定》明確,任何組織和個人不得利用深度合成服務製作、複製、發佈、傳播法律、行政法規禁止的資訊,並要求深度合成服務提供者應當建立健全辟謠機制,這在一定程度上為深度合成服務的技術應用劃定了底線。“要正面劃定AI換臉擬聲能夠用於什麼範圍有一定難度,及時規定使用原則,比如合法、必要條件等。當前我國有《具有輿論屬性或社會動員能力的網際網路資訊服務安全評估規定》,如果人工智慧應用符合該規定應用條件,也可以遵循其要求進行安全評估。”
“AI産業是需要規制的,但安全與發展應該並重。”鄭寧提到,對於新興技術,要保持審慎監管的態度,結合具體的應用場景,在分級分類的基礎上進行預防式的治理,同時也要秉持包容的態度,促進産業發展,鼓勵創新。
“大家儘量不要在公共平臺上過多地上傳個人聲音、圖像等資訊,這些可能成為不法分子的合成素材。”在張澤偉看來,資訊時代,每個人都應當增強個人資訊保護意識、反詐意識。實踐中,可以注意觀察螢幕解析度的變化,以此識別對方是否利用AI擬像,“也可以與本人約定一些暗號,必要時對一下暗號再進行轉賬”。
(責任編輯:沈曄)