【特別關注】
近年來,人工智慧(AI)技術的更疊讓人目不暇接。語言模型領域取得重大突破的2023年剛剛過去,2024年,人們又迎來了視頻和物理世界虛擬生成方面的突破。然而,在人工智慧技術被廣泛應用於科創、文化、教育、醫藥、交通等各行各業,甚至進入日常生活的當下,其被濫用的風險已開始引發擔憂。
“深度偽造”真假難辨
使用人工智慧演算法生成的高度逼真的虛假圖像、音頻和視頻等,被稱為“深度偽造”內容。自這一概念于2017年首次出現以來,借助該技術詐騙或操縱輿論的事件在全球愈加頻發。以美國為例,過去一年裏人工智慧詐騙事件同比增幅超過了50%。
然而時至今日,人們仍未能有效解決該問題。這是因為,人工智慧造假能力的進步速度遠遠超過了資訊識偽技術的開發速度。如今,任何人都可以快速地、低成本地生成難辨真假的圖像、音頻甚至視頻,而且難以追蹤。與之相反,識偽技術則因在主題和軟體方面具有特異性,難以得到普及。此外,核查事實需要花費更多時間精力。據日本瑞穗研究所及技術公司的調查,70%的日本受訪者認為網際網路上的資訊很難判斷真假,但只有26%的受訪者表示在接觸可疑資訊後會進行某種程度的驗證。
今年年初,世界經濟論壇發佈《2024年全球風險報告》,將人工智慧生成的錯誤資訊和虛假資訊列為“未來兩年全球十大風險”之首,擔心其會使本就兩極分化、衝突頻發的全球形勢進一步惡化。考慮到2024年是全球“大選年”,70多個國家或地區將舉行重要選舉,人們擔憂人工智慧會被武器化,被用來誤導選民、誹謗候選人,甚至煽動暴力、仇恨和恐怖主義。
“2024年的美國大選將出現人工智慧生成的虛假資訊海嘯。”正如美國布魯金斯學會技術創新中心高級研究員達雷爾·韋斯特所言,美國大選剛剛迎來初選階段,就已經有人試圖利用“深度偽造”操控選民了。今年1月,美國民主黨初選在新罕布希爾州舉行,很多選民表示在初選前接到了“來自美國總統拜登的電話”,電話裏“拜登”建議選民不要參與初選,應該把選票留到11月大選時投給民主黨。這則電話實際上是拜登競爭對手迪安·菲利普斯的政治顧問克雷默安排的。他利用人工智慧模擬了拜登的聲音,並撥給了最有可能受影響的選民。克雷默甚至直言:“只需要500美元,任何人都可以再現我的行為。”
業內人士擔心,“深度偽造”內容的氾濫會讓公眾完全失去對自身感官的信任,真實資訊也同樣會遭到更多質疑。比如2016年,特朗普曾極力宣稱與其有關的一份醜聞錄音是捏造的。若此事發生在當下,他的詭辯可能更具説服力。
類似的問題已在全球多國出現,然而技術的發展走在了各國的法律和行業規範之前,目前不得不更多依賴科技公司的“自我監管”來解決問題。在2月舉行的第60屆慕尼黑安全會議期間,全球多家科技企業簽署協議,承諾將共同努力打擊旨在干擾選舉的人工智慧濫用行為,包括開發識偽工具,同時在生成圖像上添加“非現實內容”標簽及電子浮水印以明確其來源。部分企業還在考慮禁止政治候選人圖像的生成。然而,有媒體認為上述協議僅勾勒出一些最基本的原則,並沒有寫明企業履行承諾的具體措施及時間表,空洞的集體表態更像是一場公關活動。更何況,科技公司對其人工智慧産品進行主觀調控,是否意味著會將公司的價值觀強加給用戶,這也是一個問題。
此外,電子浮水印技術尚存在不足。比如,“內容來源和真實性聯盟”提供的浮水印只能被用於靜止圖像,而且“很容易被意外或故意刪除”。因此,從源頭控制虛假資訊生成的難度、限制虛假資訊在社交媒體的傳播以及培養公眾的批判性思維等,仍是各國解決“深度偽造”問題時不得不面對的難點。
“AI戰爭”的陰影
儘管公眾對人工智慧興趣大增主要是由於生成式人工智慧的發展,但多國軍方早已將注意力投向了人工智慧技術在戰場上的應用,尤其是能夠進行深度學習的自主武器系統。美國戰略界把人工智慧的發展與歷史上核武器的出現相類比,美知名科技企業家埃隆·馬斯克也認為,人工智慧技術的擴散已讓各國企業可以“在自家後院製造核彈”。
在當前全球最受關注的兩場衝突中都能看到人工智慧的應用。美《時代》週刊近日刊文將俄烏衝突稱為“第一場人工智慧戰爭”,披露美國科技公司帕蘭蒂爾向烏克蘭提供人工智慧軟體,通過分析衛星圖像、無人機畫面等情報提供打擊敵軍的最有效目標,並根據每次打擊進行學習和改進。報道稱,這些“人工智慧軍火商”儼然把烏克蘭當作了其最新科技的最佳實驗場。
在巴以衝突中,以色列軍隊已將人工智慧技術用於摧毀無人機、繪製隧道網路地圖,以及推薦打擊目標。據報道,名為“福音”的人工智慧系統讓以軍尋找攻擊目標的效率提升了幾百倍。不少媒體擔心這可能意味著系統不僅鎖定了軍事設施,也在轟炸平民住所,“人工智慧可能正被用於決定加沙居民的生死”。
而早在2020年就首次實驗人工智慧目標識別的美國,最近也廣泛利用該技術定位葉門的火箭發射裝置、紅海的水面艦艇,以及伊拉克和敘利亞的打擊目標。
據美媒報道,美國軍方還不斷加強與OpenAI等領先企業的合作。2023年8月,生成式人工智慧的浪潮掀起不久,美國防部數字和人工智慧首席辦公室便迅速成立“生成式人工智慧工作組”。今年1月,OpenAI悄無聲息地更新了其“使用政策”頁面,刪除了其中對“軍事和戰爭”應用的限制,將條款改為更模糊的“禁止利用産品開發或使用武器”。不久後,該公司承認正與五角大樓合作開展包括研發網路安全工具在內的多個項目。近日,美國防部高級官員再次邀請美科技企業參加秘密會議,希望加速探索和實施人工智慧的軍事應用。
相關專家認為,人類在幾十年間成功遏止核武器使用,靠的是各國間的戰略協調。目前全球缺乏人工智慧軍事應用的國際治理框架,極易因技術失控導致衝突升級或引發軍備競賽,迫切需要儘快達成多邊共識。聯合國秘書長古特雷斯此前強調,聯合國必須在2026年前達成具有法律約束力的協議,禁止在自動化戰爭武器中使用人工智慧。
國際協調合作不可或缺
人工智慧同時具有正反兩方面的巨大潛能,需及時採取措施防範風險。2016年以來,各國陸續發佈相關政策法規,但進展仍趕不上技術的進步。去年10月,拜登簽署美國首項人工智慧監管行政令,為人工智慧建立安全和隱私保護標準,但被指缺乏強制執行效能。歐盟方面,雖然歐洲議會于3月13日通過《人工智慧法案》,但是法案中的相關條款將分階段實施,部分規則要到2025年才生效。日本執政黨自民黨直到最近才宣佈計劃在年內提議政府引入生成式人工智慧立法。
無論是生成式人工智慧帶來的虛假資訊問題,還是人工智慧軍事應用的風險,其影響都是跨越國界的。因此,人工智慧的監管和治理應通過國際合作來解決,各國應共同做好風險防範,攜手共建具有廣泛共識的人工智慧治理框架和標準規範。
然而遺憾的是,美國不僅從一開始就把中國的人工智慧發展計劃當作敵對行為,在佈局人工智慧軍事應用時把中國視為假想敵,而且為了維持技術優勢,長期阻礙中國技術進步。據報道,美政府不僅禁止美國企業對華出口處理能力最強的人工智慧晶片,還要求美國雲計算公司披露在其平臺上開發人工智慧應用程式的外國客戶姓名,試圖借此阻斷中國企業訪問數據中心和伺服器。
人工智慧的發展治理攸關全人類命運,需要群策群力、協調應對。在人工智慧領域搞“小院高墻”只會削弱人類共同應對風險挑戰的能力。美國應切實尊重科技發展的客觀規律,尊重市場經濟和公平競爭原則,停止惡意阻撓他國技術發展,為加強人工智慧領域的國際協調合作創造良好條件。(光明日報)