號稱可提供ChatGPT服務,實際是冒牌AI;視頻電話中熟悉的“親友”,是不法分子AI換臉模擬而成;為博取流量,用AI技術編造虛假謠言,流量變“流毒”……
隨著人工智慧的發展迭代,生成式AI正以前所未有的速度重塑著日常生活,但由此衍生出的新騙局、新套路也在刷新人們對風險防範的認知。這背後不僅關乎廣大消費者的財産安全,還潛藏著人身安全風險和隱患。記者梳理近期管理部門查處的AI相關案件,揭開人工智慧“圈套”背後的真相。
9塊9使用ChatGPT?其實是“套殼AI”
自人工智慧産品ChatGPT爆火,一些企業看到無限“錢景”,強行“關聯”。一時間,市場上涌現出不少與ChatGPT“沾親帶故”的服務産品。2023年2月,一個名為“ChatGPT線上”的公眾號引起了上海市徐匯區市場監管部門的注意。
這個頭像與ChatGPT原開發公司官方標識高度相似的公眾號,在用戶短暫免費體驗後即需註冊會員付費使用,支付9.9元可以對話20次,隨著對話次數增加,其收費也逐步提高。該公眾號僅用兩個月就吸納超36萬人的粉絲量,累計註冊付費用戶4231人,經營額共計125385.44元。
執法人員調查發現,該公眾號的運營公司與實際ChatGPT開發公司並無關聯。所謂“ChatGPT線上”也並非“ChatGPT”産品本身。“當事人為實現銷售目的,使用類似圖像、名稱及服務簡介等多種手段實施複合性混淆行為,利用‘ChatGPT’熱點進行攀附,混淆真實情況,謀取交易機會,獲取不當利益。”上海市徐匯區市場監督管理局執法稽查科副科長張琦説,當事人行為違反了《中華人民共和國反不正當競爭法》第六條第(四)項的規定,市場監管部門已責令其停止違法行為,處以罰款,並要求其妥善處置相關消費糾紛。
記者發現,“冒牌AI”的現象並不少見。2023年,百度“文心一言”上市前夕,網上出現大量打著“文心一言”旗號的社交媒體賬號。隨後百度官方發文辟謠稱“文心一言”尚未註冊社交賬號。
“人工智慧大模型開源生態的建立,讓AI發展加速的同時也讓生成式AI更容易被濫用。”中國行政法學研究會常務理事、華東政法大學教授沈福俊認為,考慮到立法的滯後性,監管部門還需更加關注新技術發展對市場端的影響,加大事前監管力度,充分運用現有的法律法規資源實施有效監管,切莫使新問題隱匿在“監管盲區”。
張琦也表示,消費者出於對新興技術的好奇,往往在不知不覺陷入“圈套”。“如果誤用了別有用心的‘套殼AI’,甚至可能被不法分子套取個人資訊,埋下安全隱患。”他建議,消費者在選擇AI産品時需仔細甄別,避免被商家誤導。“如果購買到了倣冒産品,要保留好相應的産品購買憑證,主動聯繫監管部門,維護自身合法權益。”
“AI換臉”詐騙眼見不一定為實
只需一通視頻電話,不法分子就騙走了430萬元。2023年4月,福建省某科技公司法定代表人郭先生接到“好友”的微信視頻通話,對方聲稱自己當下需要430萬元保證金用以項目競標,想借用郭先生公司的賬戶“走個賬”。因為有先前的視頻通話,加之對“好友”的信任,郭先生陸續給對方轉賬共計430萬元。隨後郭先生再次聯繫好友時才發現自己被騙。所幸在警方幫助下,成功止付攔截336.84萬元。
據郭先生回憶,由於在視頻電話中確認了對方的面孔和聲音,所以毫不懷疑對方身份有詐。不僅如此,犯罪分子還精準了解郭先生與好友的關係,並成功盜取好友微信賬號實施詐騙,令人不寒而慄。
AI技術的迭代升級讓不法分子借助智慧AI換臉和擬聲技術,就可輕鬆實現遠端視頻詐騙。記者調查發現,最近多地出現的AI換臉詐騙案件,均具備定制性、迷惑性等特徵。
其中,香港警方近期披露一起涉案金額高達2億港元的多人AI換臉詐騙案尤為典型。據媒體報道,某公司職員受邀參加公司“多人視頻會議”時,先後將2億港元分別轉賬到5個本地銀行賬戶內。據警方調查,這場視頻會議中除了受害者外,其餘均為AI換臉後的詐騙人員。
不少業內專家表示,隨著文生視頻大模型Sora等多模態人工智慧的探索和出現,人們可能陷入“眼見也不一定為實”的困局。“一直以來,銀行等部門將實時視頻用做檢驗身份的手段之一,如今其可靠性將面臨巨大挑戰。”沈福俊説,“隨著人工智慧技術的迭代升級,這類違法行為還可能演變出更多形態。”
沈福俊坦言,對此類AI換臉和AI擬聲的惡性詐騙案件,若只依靠傳統監管手段已不能防堵,監管部門在提升自我科技能力儲備的同時,有必要引入新興技術,探索用AI技術監管AI的可能。
從消費者角度出發,沈福俊建議提升全民個人資訊保護意識,謹防隱私洩露。“不管是在網際網路上還是社交軟體上,儘量避免過多地暴露自己的資訊,在涉及轉賬交易等行為時,可以多角度詢問身份資訊,反覆驗證對方是否為本人。”
警惕“AI造謠”小心“流量”變“流毒”
當前AIGC技術已在文本生成、圖片創作等方面廣泛應用,輸入幾個關鍵詞即可由AI快速生成一張畫或一篇文章。但一些用戶為博眼球、蹭熱度,卻將人工智慧技術用以編“偽消息”,造“假通報”。
2023年6月,一條名為《浙江工業園現大火濃煙滾滾,目擊者稱有爆炸聲!》的視頻在網路上流傳,引發網友關注。後經相關部門核實為謠言。據調查,當事人為給自己賬號漲粉引流,獲取更多利益,通過非法渠道購買了AI視頻生成軟體。該當事人將網路熱門話題通過AI自動生成視頻産品,並上傳至多個熱門視頻平臺。
截至案發,相關當事人發佈的虛假視頻多達20余條,涉及浙江、湖南、上海、四川等多個省市,累計閱讀觀看量超過167萬次。目前浙江紹興上虞法院已開庭審理並當庭宣判了這起案件,兩名被告均被判處有期徒刑。
但“AI謠言”仍時有發生。2024年1月,廣西東興市駱某某為博取流量,將其他地區的抗洪、救災視頻,經AI軟體自動編輯,編造新疆烏什縣發生地震的虛假視頻資訊。同年1月,四川一網民在某平臺發佈“貴州女嬰被棄”的謠言文章。經調查,該涉謠文章由AI系統生成併發布,相關言論及照片均為不實資訊。
技術的普及帶動自媒體産業的繁榮。但一些網民為獲取流量不惜利用技術手段編造生成虛假視頻,讓“AI謠言”在網路上傳播,不僅給網路安全帶來嚴峻挑戰,也嚴重擾亂社會秩序。
2023年,最高人民法院、最高人民檢察院、公安部聯合發佈的《關於依法懲治網路暴力違法犯罪的指導意見》中規定,對“利用‘深度合成’等生成式人工智慧技術發佈違法資訊”的情形,依法從重處罰。
對此,沈福俊等多位專家表示,一方面,要提高廣大自媒體經營者的法律意識,從源頭減少此類“AI謠言”的産生;另一方面,監管部門也要加強相關案件的宣傳推廣,提高網民對“AI謠言”的鑒別力。
(本報記者程思琪 參與采寫:陳一飛)
(責任編輯:沈曄)