您的位置: 技術市場>人工智慧>

人工智慧領域新應用 “深度合成”技術將規範發展

發佈時間:2022-02-23 10:49:25  |  來源:經濟日報  |  作者:李芃達  |  責任編輯:徐麗麗

2月8日,在北京冬奧會自由式滑雪女子大跳臺決賽中,中國選手谷愛淩憑藉最後一跳的出色發揮逆轉奪冠,AI合成主播“小聰”用手語解説了這個激動人心的奪冠時刻。作為全球首個手語AI合成主播,“小聰”利用深度合成技術,為聽障人士獲取資訊帶來極大便利。


作為人工智慧領域的新應用,深度合成技術以深度學習、虛擬現實為代表的生成合成類演算法製作文本、圖像、音頻、視頻,因較強娛樂性在社交媒體平臺廣受關注。相關研究顯示,在國內外主流音視頻網站、社交媒體平臺上,2021年新發佈的深度合成視頻數量較2017年增長10倍以上。


但大規模普及也導致濫用案例頻出。不久前,國家網信辦公佈《網際網路資訊服務深度合成管理規定(徵求意見稿)》,對深度合成內容的用途、標記、使用範圍以及濫用處罰作出具體規定。業內認為,管理新規的即將出臺,意味著深度合成將迎來規範化發展關鍵期。


應用豐富 帶動産業快速發展


清華大學人工智慧研究院、國家工業資訊安全發展研究中心等日前聯合發佈的《深度合成十大趨勢報告(2022)》指出,2017年以來,深度合成內容被大量創作和傳播,數量逐年高速增長。


技術不斷成熟是深度合成內容快速增長的重要原因。自2017年開始,深度合成領域新發表論文數量和開源項目均以每年30%的速度增長。“研究論文持續增多,開源技術工具、大量代表性方法集中涌現,使得深度合成內容的效果更加逼真、製作更加高效。”北京瑞萊智慧科技有限公司CEO田天告訴記者,縱觀電腦行業發展,開源項目已成為推動産業進步的強大力量,深度合成在開源社區中備受青睞,將繼續推動該技術在産業中落地。


通過升級傳統內容製作方法,深度合成在影視製作、廣告行銷、社交娛樂等領域應用不斷豐富,包括AI合成主播、虛擬偶像、修復歷史老照片等。2021年,虛擬偶像洛天依登上央視春晚,2022年,已經“出道”10年的她再次現身元宵晚會舞臺。公開數據顯示,2020年6月至2021年5月,共有32412位虛擬主播在嗶哩嗶哩開播,同比增長40%。


與此同時,越來越多的企業機構開始利用深度合成技術提供面向公眾的産品和服務,涵蓋圖像、視頻、音頻、文本等多個領域。語音合成已經成為人機交互的重要一環,被應用於智慧客服、語音導航、有聲讀物、語音助手等場景,多家企業機構已發佈基於深度神經網路技術合成音頻的商用開放平臺,而以文本為形式的深度合成在新聞報道、詩文創作、聊天問答等方面顯現出巨大的創作效率和潛力。


此外,“元宇宙”等新商業思維的提出也為深度合成提供更廣闊的應用場景。“深度合成將重新定義虛擬數字化空間,從傳播社會學意義上看,一個新的人類生存場景將以深度合成技術為基石展開。”清華大學新聞與傳播學院常務副院長陳昌鳳説。


風險加劇 檢測技術持續更新


深度合成激發新形式內容創造的同時,也帶來新威脅、新挑戰。《深度合成十大趨勢報告(2022)》分析認為,深度偽造影響新聞對真相的記錄,對虛假內容高難度甄別也降低了事實核查的有效性。在社會重大突發事件上,深度合成技術可能被用於操作輿論意見,借助社交媒體,使虛假資訊短時間內發酵。


隨著負面風險日益加劇,以及合成品質不斷提升,基於生物特徵的傳統鑒別方式越來越難以發揮作用。“目前對深度合成內容的自動化鑒別主要依靠人工智慧技術完成。”浙江大學網路空間安全學院院長任奎介紹,訓練人工智慧模型需要大量真實和偽造數據,人臉和音頻數據都是高度敏感的個人資訊,難以獲取,而偽造數據也包含各種不同方法合成的數據,這都給構建自動化檢測能力帶來不小挑戰。


新型偽造方法的層出不窮,加上檢測演算法存在結構性缺陷,反深度偽造檢測技術面臨“強對抗性”。田天解釋説,這類似于“貓鼠遊戲”,深度合成和檢測在不斷學習攻防過程中會自我進化,規避上一代對抗技術,因此檢測技術需要持續更新與迭代優化。


目前學術界和産業界均已對反深偽檢測投入了大量研究,谷歌、微軟等機構均推出深度合成視頻認證的方法或産品。在國內,瑞萊智慧推出的深度偽造內容檢測平臺DeepReal,擁有工業級的檢測性能和應對實網環境對抗變化的檢測能力。“深度偽造檢測面臨持續的攻防和博弈,未來還需融合多模態內容的取證分析、基於數字浮水印的溯源技術等多方面能力,實現精準識別。”清華大學人工智慧研究院基礎理論研究中心主任朱軍説。


構建多維度治理機制


近年來,針對深度合成技術惡意使用所帶來的問題,世界各國紛紛出臺管理法律法規,探索深度合成的治理路徑。歐盟將深度合成納入《通用數據保護條例(GDPR)》等現有法律框架規制,德國、新加坡、英國、南韓等國家,均有適用於深度合成技術相關犯罪案件審理的法律法規。


我國正積極探尋建設有效治理機制。自2019年11月起,先後出臺的《網路音視頻資訊服務管理規定》《網路資訊內容生態治理規定》《網際網路資訊服務演算法推薦管理規定》等文件,均對生成合成類內容提出不同程度的監管要求。


中國工程院院士鄔賀銓認為,治理深度合成不能搞“一刀切”,要持續發展技術,避免阻礙其正向應用與創新。其衍生出的安全問題需從源頭解決,引導人工智慧學術界、産業界不斷加強技術研發,並擴展深度合成溯源、深度合成鑒定等方面的研究,防範倫理安全風險和合規風險。


引導深度合成技術良性發展,需探索多維度治理機制。中國社科院哲學所科技哲學研究室主任段偉文建議,加強對深度合成的技術、法律和倫理問題展開系統性前瞻性跨學科研究,對其可能出現的高風險應用場景採取有針對性的治理與監管。


中科院自動化所研究員曾毅則倡導産學研發展自律自治,他表示,在法律法規未形成體系化之前,産業界自身應強化理論先行意識,防範濫用、嚴禁惡用。


在對外經濟貿易大學法學院副教授許可看來,社會層面應加大宣傳普及力度,強化公民對深度合成等人工智慧技術的認識,提高全社會防範意識。


田天對此有相同看法,他認為深度偽造的本質問題是透明度不足,因此提高公眾對深度合成技術的認知尤為重要,只有將門檻降低到所有受眾能夠在共同框架下認識、討論、理解這個問題的時候,深度合成技術才能健康良性發展。


業內專家建議,各方應當落實好新的規範要求,在此前提下不斷追求技術突破,開拓深度合成技術應用場景,形成對人工智慧産業的帶動效應。


 
分享到:
0