人工智慧(AI)浪潮正以前所未有的速度推進。這是一個AI新紀元,在AI的幫助下,科研的邊界被不斷拓寬,解決複雜問題的速度越來越快,但必須警惕:AI也能極大提高犯罪分子的“生産力”。
安全公司“趨勢科技”研究員文森佐·錢卡利尼表示,生成式AI提供了一個新的、強大的工具包,使惡意行為者能夠比以往更高效、更國際化地開展活動。
錢卡利尼説,大多數犯罪分子“並不是生活在黑暗巢穴裏密謀行事”,他們中“大多數都是普通人,從事著日常工作”。
去年的“WormGPT衰落”是一個標誌性事件。WormGPT是一種基於開源模型構建的AI語言模型,但它使用惡意軟體相關數據進行訓練,會協助駭客工作且沒有任何道德規則或限制。2023年夏天,在引起媒體高度關注後,該模型的創建者宣佈關閉模型。自那以後,網路犯罪分子大多停止開發自己的AI模型,轉而借助更可靠的現有工具來“耍花招”。
這可能是因為,犯罪分子也想更快獲得收益且不想承擔新技術帶來的未知風險。人們對此必須多加注意,以下5種就是目前他們最常用的方式。
網路釣魚:誘騙你的私人資訊
瑞士蘇黎世聯邦理工學院的AI安全研究員米斯拉伕·巴盧諾維奇表示,目前生成式AI最大的濫用就是網路釣魚,其試圖誘騙人們洩露敏感資訊,再用於惡意目的。研究發現,在ChatGPT興起的同時,也伴隨著網路釣魚電子郵件數量大幅增加。
錢卡利尼表示,GoMail Pro等垃圾郵件生成服務已整合ChatGPT,這使得犯罪用戶能翻譯或改進發送給受害者的消息。OpenAI的政策限制人們用其産品進行非法活動,但在實踐中其實很難監管。
OpenAI方面表示,他們將人工審核和自動化系統相結合,以識別和防止其模型被濫用,如果用戶違反公司政策,則會實施警告、暫停、永久關閉等措施。
還有一點值得注意,由於AI翻譯工具的進步,世界各地犯罪集團的溝通變得更容易,他們可能開展大規模跨國行動,或在本國對其他國家用戶採取惡意行動。
深度偽造:進入地下市場
生成式AI使深度偽造(Deepfake)的開發發生質變。當前,技術合成的圖像或音視頻,看起來或聽起來比以往任何時候都更加真實,這一點犯罪分子也意識到了。
錢卡利尼團隊發現,已經有用戶在電報(Telegram)等平臺上展示他們的“深度偽造組合”,並以每張圖片10美元或每分鐘500美元的價格出售服務。
相較圖片,深度偽造視頻製作起來更複雜,而且更容易露出破綻。深度偽造音頻的製作成本低廉,只需幾秒鐘的某人的聲音(例如從社交媒體獲取),即可生成令人信服的內容。
這樣的詐騙案例並不鮮見,人們接到親人打來的求救電話,稱自己被綁架並要求交付贖金,結果卻發現,打電話的人是個使用深度偽造語音的騙子。
錢卡利尼建議,親人之間應商定一些秘密安全詞並定期更換,這有助於緊急情況下確認電話另一端的人的身份。
繞過身份檢查:一個偽造的“你”
犯罪分子濫用AI技術的另一種方式是繞過驗證系統。
一些銀行和加密貨幣交易需驗證其客戶是否本人。他們會要求新用戶在手機相機前持身份證拍攝一張自己的照片,但犯罪分子已經開始在電報等平臺上銷售能繞過這一要求的應用程式。
他們提供的是偽造或被盜的身份證件,再將深度偽造的圖像強加在真人臉上,以欺騙手機相機驗證程式。據錢卡利尼發現的一些例子,該服務的價格甚至低至70美元。
“越獄”式服務:帶來危險輸出
如果有人向AI詢問如何製造炸彈,那他不會得到任何有用的答覆。這是因為大多數AI公司已採取各種保護措施來防止模型洩露有害或危險資訊。
現在,網路犯罪分子不再構建自己的AI模型,這種方式既昂貴、耗時又困難。一種新犯罪趨勢開始出現——“越獄”式服務。
比如上面得不到答案的問題,這顯示了模型都有關於如何使用它們的規則。但“越獄”允許用戶操縱AI來生成違反這些政策的輸出。例如,為勒索軟體編寫代碼,或生成可在詐騙電子郵件中使用的文本。
為了對抗這些不斷增長的風險,OpenAI和谷歌等公司需時時堵塞可能導致緊急危害的安全漏洞。
人肉搜索和監視:暴露用戶隱私
巴盧諾維奇表示,AI語言模型不僅是網路釣魚的“完美工具”,對人肉搜索(線上洩露某人的私人身份資訊)也是如此。這是因為AI語言模型經過大量網際網路數據(包括個人數據)的訓練, 可推斷出某人位於何處。
犯罪分子可能會讓聊天機器人假裝是具有側寫經驗的私家偵探,然後讓它分析受害者所寫的文本,並從文本中的小線索推斷出個人資訊。例如,根據他們上高中的時間推斷他們的年齡,或者根據他們在通勤時提到的地標推斷他們的居住地點。網際網路上該人的相關資訊越多,就越容易被識別。
巴盧諾維奇團隊2023年底發現,大型語言模型,如GPT-4、Llama 2和Claude,已能夠僅從與聊天機器人的日常對話中推斷出人們的種族、位置和職業等敏感資訊。理論上,任何能訪問這些模型的人,都能以這種方式使用它們。
這些服務的存在,並不直接表明犯罪活動的存在,但我們必須看到可供惡意行為者利用的新功能。而防止這些事情發生的唯一方法就是加強防禦。
巴盧諾維奇稱,對AI公司來説,應完善數據保護;對個人來説,提高防範意識是關鍵——人們應三思而後行,考慮他們在網上分享的內容,並謹慎決定,自己是否願意在語言模型中使用他們的個人資訊。
(責任編輯:畢安吉)