最近,“AI詐騙正在全國爆發”話題熱度居高不下。事情起因在於包頭警方近日發佈一起利用AI實施詐騙的典型案例,受騙人10分鐘內被騙430萬元。
AI詐騙之所以如此受社會關注、甚至引發恐慌,主要原因在於AI詐騙是模倣真人聲音和面部實施詐騙,這種針對個人資訊定制的“專屬劇本”詐騙成功率非常高。上述案件中,騙子盜用受騙人好友微信賬號,通過AI換臉和擬聲技術佯裝好友,通過視頻聊天成功對受騙人實施詐騙。多地警方提醒,AI詐騙的成功率接近100%。親友間網路上借錢更要防範此類詐騙,避免個人資訊被別有用心者盜用。
面對此類詐騙案,網路上甚至有網友自嘲,“還沒享受到AI的便利,就先遭到了AI的重錘”。眾所週知,利用新技術詐騙是電信詐騙的典型特點。從過往來看,無論是“盜版技術”BT種子下載還是“比特幣技術”區塊鏈,都曾是電信詐騙利用的工具。筆者在此呼籲,對於這種現象監管部門需要高度重視,電信詐騙與新技術密切勾連,在實踐中容易造成上述污名化現象。其危害既影響科研人員積極性,又不利於營造友好的創新環境。
事實上,技術本身是中性的,“無罪的”,關鍵誰來運用。對於AI這樣的新一代資訊技術,我們不能因噎廢食。當前,ChatGPT引領AI變革,讓人們再次看到AI技術在解放生産力、提高生産效率上的巨大潛力。
同時,技術被濫用的風險不容低估。筆者建議,在AI詐騙剛剛冒頭之際,監管部門不僅要嚴打AI詐騙,還要利用大數據技術查清到底是哪些人在為AI詐騙提供技術?背後是否形成了灰色産業鏈?目的就是在AI技術發展中堅決規範並堵住危害社會的源頭。
追根溯源,AI詐騙的源頭在於個人資訊洩露,在於數據的治理。個人資訊不洩露,騙子也就無法拿到個人資訊,無從得知人際關係,更沒法模倣面貌腔調。然而,在當前幾乎所有的App都想接入個人電話、照片、短信等許可權的環境下,用戶“資訊裸奔”現象時有發生。
因此,對於電信詐騙,見招拆招誠然重要,更重要的是防範。近年來,個人資訊保護法、個人資訊安全規範、數據安全法等法律法規陸續推出,加強了對公眾的生物特徵等各類隱私數據保護力度。與此同時,生成式人工智慧服務管理辦法出臺在即,重點強調了生成式人工智慧産品訓練數據及生成內容的真實性。
筆者認為,監管部門在貫徹落實好相關政策的同時,也要注重健全AI等新技術倫理規範,加強安全監管舉措,引導和規範技術服務商行為。網路社交等平臺企業要加強用戶賬號管理,防止被他人盜用、竊取。個人也要提高防範意識,避免過多暴露自身資訊。
(責任編輯:柯曉霽)