> 指數

AI技術為安全治理提供“新工具箱”

“數字化進入新階段,我們面臨著全新的安全挑戰。”1月18日,中國社會科學院大學數字中國研究院舉辦“數字時代安全科技價值”專題研討會,中國社會科學院大學數字中國研究院執行院長呂鵬在會上説,“安全風險呈現出快迭代、高智慧、全覆蓋的新特點。尤其是有了生成式人工智慧以後,關注人工智慧的安全風險更加緊迫。”

研討會上發佈了《數字時代安全科技價值報告》。該報告指出,未來,安全科技將成為公共品,與人工智慧(以下簡稱AI)並列成為兩項通用技術。具體來看,AI作為核心關鍵技術,將成為未來生産力的“發動機”。安全科技將作為“方向盤”,把新興科技控制在向善的道路上。新的安全技術發展得越好,個人與社會為數字化轉型所付出的代價也將越小。

安全科技將成為公共品

“當人們提到安全科技時,想到的往往是防病毒軟體和防火牆軟體。但全球安全科技的版圖和技術工具已遠遠超過這個範圍。”呂鵬介紹,“在網路安全、系統安全之外,還有數據安全、終端安全、AI安全、雲安全等技術門類,也包括區塊鏈、隱私計算、量子計算等前沿技術。”

浙江工業大學網路空間安全研究院院長宣琦指出,本質上,安全科技是一種伴生技術。它永遠在面向新科技、新發展。比如,伴隨AI發展提出智慧安全,針對生物科技提出生物安全。新技術的發展有時非常快速,所以安全技術的發展和創新也同樣在高速進行。

中國社會科學院科學技術和社會研究中心研究員段偉文認為,未來,安全科技必將成為公共品。整體來看,安全科技具有“壓艙石”與“助燃劑”的雙重價值:守住技術的安全底線,防禦外部風險隱患,讓技術“難作惡”;提高技術的安全上限,降低技術運作成本,讓新技術得以規模化落地,讓産業在安全的基礎上“跑起來”。

呂鵬舉例説明安全科技在産業發展中的應用。“北京中鐵建工物資有限公司和螞蟻蟻盾共建産業風控平臺,用數據智慧防範上下游的協作風險,産生了較好的效果。”呂鵬説,“工作效率提高了50%以上,産業授信額度的評定科學化、可量化程度也得到大幅提高。風險預測、預警、事後風險處置等都更好更精準。”

AI安全風險主要分三類

2023年,AI大模型安全風險凸顯。AI技術在帶來強有力的新工具的同時,也帶來數據隱私、技術濫用、失控等安全問題。“加強對AI這一新興技術的潛在風險研判和防範,確保AI安全、可靠、可控,已成為産業發展的核心要素。”呂鵬説。

在段偉文看來,AI安全風險目前來看主要可以分為三類:內生風險、衍生風險、外生風險。

在內生風險方面,AI存在技術本身的脆弱性、對數據的依賴性等自身缺陷帶來的安全問題。比如,如果給數據庫不斷投喂帶有特定價值觀的數據,會對AI系統形成嚴重干擾,産生“數據偏見”“觀點霸權”等問題。衍生風險是指AI系統因其自身脆弱性被利用或不恰當使用,可能引發其他領域的安全問題。例如生成虛假新聞、利用深度合成偽造進行詐騙等,這涉及人身安全、隱私保護等一系列社會治理挑戰。外生風險也就是面向AI系統的外部網路攻擊。

《數字時代安全科技價值報告》認為,當前,安全風險變得更加複雜隱蔽、強對抗、更具破壞力,將AI驅動的業務風控系統建設得更強、更智慧,更好地應對大規模網路攻擊與入侵,成為行業健康發展的必需。過去幾年,通過應用AI來提高安全技術的效率和成功率,已經成為技術領先企業的常態。業界開始推出“大模型質檢”類安全産品,成為推進大模型安全健康發展的方式之一。

“快”“慢”結合維護大模型安全

呂鵬指出,AI技術發展給安全治理增加挑戰的同時,也形成AI安全治理的“新工具箱”。

談到“用AI對抗AI”的具體産業實踐,他介紹,一方面,可以使用智慧對抗技術向大模型“投射問題”,觀察模型生成的回答,以此實現對AI生成圖片、視頻等多模內容進行“真偽”辨別和安全性檢測。另一方面,通過智慧化風控技術,可以幫助大模型攔截外界的惡意提問,確保外部惡意誘導無法傳入大模型。同時,對生成的回答內容能夠進行風險過濾,保障大模型上線後從用戶輸入到生成輸出實現整體安全防禦。

整體來看,通過從已有數據中學習,AI可以更快地識別攻擊的模式和趨勢,從而預測未來攻擊,並配置自動響應威脅功能,在更快的時間內對抗網路威脅。

呂鵬表示,維護大模型安全既要“快”也要“慢”。大模型安全防禦方面要“快”,要能快速檢測、查殺病毒,確保服務無毒害。大模型安全可信方面要“慢”,要能長遠地、體系化地保證整個系統環境的可控、可信。

來源:科技日報  責任編輯:石進玉

(原標題:AI技術為安全治理提供“新工具箱”)