當網路謠言用上AI該如何應對
“0成本、高收益”,隨著AI從最初的“工業級”技術逐漸“飛入尋常百姓家”,一些別有用心者的造謠能力也得到了大幅提升。據報道,某MCN機構通過具有語音交互功能的AI軟體生成虛假文章上傳到多個網路平臺,最高峰一天能生成4000-7000篇。當網路謠言用上AI,網民該如何應對?本期“思與辨”就該話題進行討論。
主持人:趙 鑫
嘉賓:陳 兵(南開大學法學院教授、中國新一代人工智慧發展戰略研究院特約研究員)
賈開(上海交通大學國際與公共事務學院長聘副教授)
詹國輝(南京財經大學MPA教育中心副主任、副教授)
AI造謠呈現出門檻低、傳播廣、更具迷惑性等特點
主持人:相較于一般網路謠言,AI造謠有何特點?
陳兵:AI造謠具有更高的自動化程度。它能夠自主生成內容,極大加快了謠言的生成與傳播速度。利用深度學習等技術,AI能夠生成逼真的文本、圖片和視頻,使謠言更難被識別。由於AI的自動化和匿名性,追蹤謠言來源變得更為困難。隨著開源工具和平臺的普及,即使非專業人士也能利用AI技術製造謠言,技術門檻顯著降低。
賈開:第一,網路化特徵,AI造謠的關鍵並不局限于生産謠言內容,還在於其能夠創造出一個謠言傳播的網路,並因此放大其影響。由於AI能夠同時生成多個社交媒體賬號,而這些賬號之間又相互關聯,因此同時涵蓋了生成與傳播這兩個關鍵環節。第二,混合性特徵,有些AI造謠,以真實存在的事件或某種一般性社會情緒為起點,展開虛假內容的生成與傳播,讓人更難以識別。
詹國輝:AI造謠呈現出成本低、門檻低、傳播廣、更具迷惑性、內容多樣且難以追溯等特點,但目前實踐中呈現“多為行政處罰、刑事處罰較少”的特點,在客觀層面上難以形成有力震懾效應。
虛假資訊常含有邏輯漏洞、事實錯誤,要保持警惕,多信源比較
主持人:對於AI生成的網路謠言、虛假資訊,我們應該如何辨別?
詹國輝:保持警惕性,關注資訊來源。比如,在瀏覽網路資訊時,不輕信未經證實的資訊;儘量選擇權威、可信賴的媒體或機構發佈的資訊。
分析資訊的邏輯性。如果發現資訊在邏輯上存在明顯漏洞或矛盾,它很可能是經過篡改或杜撰的;對於那些過於誇張、聳人聽聞的標題和內容,要保持懷疑態度,進一步核實其真實性。
陳兵:建議檢查資訊來源、核實事實,評估內容。應驗證發佈者是否可靠,如是否為權威機構或有信譽的個人。對於接收到的資訊,嘗試在多個來源,特別是權威媒體或專業網站上核實。虛假資訊常含有邏輯漏洞、事實錯誤或不一致之處,因此需仔細分析內容,檢查其是否合邏輯、無自相矛盾之處。
關注時間標記,警惕情感操縱,防止被深度偽造技術欺騙。虛假資訊可能使用過時數據或事件誤導讀者,故需檢查資訊的時間標記,確保其時效性。深度偽造技術能生成逼真的假視頻或圖片,面對看似完美的內容,需保持懷疑。
了解AI生成內容的常見特徵,如語言風格的一致性、缺乏深度或個性化細節等。同時,需不斷提高媒介素養和批判性思維能力,通過教育和培訓學習識別和抵制虛假資訊。
賈開:要形成思辨意識,對所有“反常識”的資訊展開質疑和求證。此外,應對網路資訊保持一定的“冗余度”,即不能認為網路資訊就是權威的、真實的、可信的,而是將網路資訊僅作為資訊源之一,多從電視臺、報紙、書籍等其他渠道獲得多元資訊,在此基礎上形成正確認識。
對那些默許、放任甚至故意利用AI造謠者,要追究法律責任
主持人:AI造謠的門檻和成本更低,批量生産謠言的情況不在少數。您認為應當如何治理這類資訊亂象?
賈開:治理AI造謠需要多方協作。第一,從技術源頭上講,應加強AI技術及其應用治理,例如要求AI生成內容標注浮水印。第二,從傳播媒介上講,社交媒體平臺應主動承擔主體責任,特別是需要扭轉平臺為了吸引流量而放任虛假內容傳播的機制。總體而言,AI造謠及其治理是一個“攻防不對稱”的過程,造謠容易但治理困難,因而我們需要對AI造謠治理具有一定包容度和靈活性,應鼓勵多方協作、敏捷回應。
陳兵:首先,強化技術監管,通過開發和部署高性能工具來識別和過濾AI製造的虛假資訊。這些工具包括利用機器學習演算法識別異常模式,以及深度偽造檢測技術。政府、教育機構、非政府組織和技術公司等應攜手合作,共用資源與資訊,構建聯合治理虛假資訊網路。
完善相關立法。針對AI生成內容,制定並實施明確的法律法規,界定責任歸屬,並對製造與傳播虛假資訊的行為進行法律制裁。
強化行業自律,激勵企業合規。鼓勵技術公司、社交媒體平臺和內容發佈者建立行業標準和自律機制,主動監控並處理虛假資訊。同時,提高AI系統的透明度,讓用戶了解內容生成過程及其背後的演算法和數據來源。
詹國輝:平臺應當加大審查力度。一方面,強化賬號註冊核驗、動態巡查、調整流量分成制度等,以便於構建更有效的事前和事中防範措施,切斷謠言傳播源頭。另一方面,網路平臺須加強內容審核機制,防止AI生成的虛假資訊上傳和傳播;對於已上傳的虛假資訊,平臺應及時刪除,並公開澄清事實。
應當明確技術開發者、應用者的謠言治理責任。一方面,大模型開發者應通過後臺設置的方式,對通過大模型生成的內容打上浮水印,告知用戶。另一方面,有必要明確技術應用者及軟體開發者的責任,對那些默許、放任甚至故意利用AI造謠者,要追究法律責任。
引入人工智慧技術,以“技術打敗技術”。鼓勵開發者從技術研發、産業應用、制度設計等各方面加強合作,打出AI謠言治理組合拳。