看到這張照片,你是否覺得這就是一張真實的人臉照片?
事實上,這是一個名為“此人不存在”的網站生成的合成人臉照片(this-person-does-not-exist.com)。
“我們對AI合成人臉照片真實感的評估表明,合成引擎已經走過了‘恐怖谷’,能夠創造出跟真實人臉難以區分且更受人信賴的人臉。”2月14日,一篇發表在《美國國家科學院院刊》(PNAS)的論文在摘要中表示。
“恐怖谷效應”于1970年由森昌弘提出,是一個關於人類對機器人和非人類物體感覺的假設。
“恐怖谷效應”稱,由於機器人與人類在外表、動作上相似,所以人類亦會對機器人産生正面的情感;而當機器人與人類的相似程度達到一個特定程度的時候,人類對他們的反應便會突然變得極其負面和反感,哪怕機器人與人類只有一點點的差別,都會顯得非常顯眼刺目,從而覺得整個機器人非常僵硬恐怖。在合成人臉照片的情景中,“恐怖谷”效應往往來自於合成人眼中空洞的表情所引發的不安感。
而一旦機器人和人類的相似度繼續上升,相當於普通人之間的相似度時,人類對其的情感反應會再度回到正面,産生人類與人類之間的移情。
越來越令人信服的圖像正在將觀者拉出“恐怖谷”,進入由Deepfake(深度偽造)構建的欺騙世界。在加州大學伯克利分校教授Hany Farid和蘭開斯特大學博士生Sophie Nightingale的《AI合成的人臉與真實人臉沒有區別且更被信賴》研究中,參與實驗的人被要求區分神經網路StyleGAN2合成人臉和真實人臉,以及這些人臉喚起的信任程度。
這項研究由三個實驗構成。在第一個實驗中,315名參與者從128張面孔(從一組800張面孔中提取)分類為真實面孔或合成面孔,準確率為48%。
在第二個實驗中,219名新參與者被培訓如何識別真實人臉與合成人臉,然後與第一個實驗一樣對128張人臉進行分類。儘管進行了訓練,最後準確率也只是提高到了59%。
繼而,研究人員決定探索可信度的感知是否可以幫助人們識別人造圖像,“人臉提供了豐富的資訊來源,只需幾毫秒的時間就足以對個人特徵(例如可信度)進行隱含推斷。我們想知道合成面孔是否會激活相同的可信度判斷,如果不是,那麼對可信度的感知可能有助於區分真實面孔和合成面孔。”
第三項實驗,223名參與者對128張面孔的可信度進行評分,這些面孔取自同一組800張面孔,評分範圍為1(非常不可信)到7(非常可信)。最後,合成面孔的平均評分比真實面孔的平均評分高7.7%,具有統計學意義。
整個實驗結果表明,合成的人臉照片與真實人臉幾乎無法區分,甚至被認為更值得信賴。這樣的結果也在研究者的意料之外,Nightingale表示,“我們最初認為合成面孔不如真實面孔可信。”
這個生成人臉照片的StyleGAN是Nvidia于2018年開發的一種神經網路。GAN由2個相互競爭的神經網路組成,其中一個稱為生成器,不斷生成一些東西,另一個稱為鑒別器,不斷嘗試確定結果是真實的還是由第一個生成的。生成器以隨機像素開始練習。隨著鑒別器的反饋,它逐漸産生了越來越逼真的人臉。最終,鑒別器無法區分真臉和假臉,訓練就結束了。
創建不存在的人臉照片實際上是GAN的一個副産品,其原本的主要目標是訓練人工智慧識別假臉和一般人臉,Nvidia需要通過自動識別人臉並對其應用其他渲染演算法來提高其顯示卡性能。然而,由於StyleGAN代碼是公開的,Uber的一名工程師就利用它創建了一個隨機人臉生成器。
對於Deepfake(深度偽造)技術的惡意使用已經在現實中有了諸多體現,比如美國大選中的虛假宣傳活動,為勒索而創造的虛假色情內容等等。自Deepfake技術出現以來,鑒別出深度偽造和進一步欺騙鑒別之間已經變成了一場“軍備競賽”。
現在這項對Deepfake進展的研究使人更加擔心其被濫用,“任何人都可以在沒有Photoshop或 CGI專業知識的情況下創建合成內容,”Nightingale表示。
美國南加州大學視覺智慧和多媒體分析實驗室主任Wael Abd-Almageed在接受《科學美國人》採訪時表示,“另一個擔憂是,這些發現會讓人覺得深度偽造將變得完全無法檢測到,科學家們可能會放棄嘗試開發針對深度偽造的對策。”
兩位研究者也提出了應對措施,如將強大的浮水印合併到圖像和視頻合成網路中,這將為可靠識別提供有效機制。
論文中寫道,也許最有害的是,在任何圖像和視頻都可以偽造的數字世界中,任何不受歡迎的記錄的真實性都可能受到質疑。“所以,我們鼓勵推進技術發展的人們考慮風險是否大於收益,而不僅僅從技術角度考慮其是否可能實現。”
(責任編輯:朱赫)