人工智慧是人類發展新領域,給世界帶來巨大機遇,也帶來了各類風險挑戰。9月9日,全國網路安全標準化技術委員會制定的《人工智慧安全治理框架》1.0版(以下簡稱《框架》)對外公開發佈。《框架》將人工智慧安全風險按內生安全和應用安全分類,並給出相應的技術應對措施。圍繞“鼓勵創新,對人工智慧研發及應用採取包容態度”“快速動態精準調整治理措施”“明確主體安全責任”“共用最佳實踐”的原則,《框架》推動各方就人工智慧安全治理達成共識,促進人工智慧安全有序發展。
《框架》提出,人工智慧系統設計、研發、訓練、測試、部署、使用、維護等生命週期各環節都面臨安全風險,既面臨自身技術缺陷、不足帶來的風險,也面臨不當使用、濫用甚至惡意利用帶來的安全風險。
其中人工智慧內生安全風險包括模型演算法安全風險、數據安全風險、系統安全風險。人工智慧應用安全風險包括網路域安全風險、現實域安全風險、認知域安全風險和倫理域安全風險。
上述風險中模型演算法安全風險的篇幅最長,共細化成六方面:可解釋性差;偏見、歧視;魯棒性弱;被竊取、篡改;輸出不可靠;對坑攻擊。以排在第一位的可解釋性差為例,此風險是指以深度學習為代表的人工智慧演算法內部運作邏輯複雜,推理過程屬黑灰盒模式,可能導致輸出結果難以預測和確切歸因,如有異常難以快速修正和溯源追責。
針對此類風險,《框架》指出要不斷提高人工智慧可解釋性、可預測性,為人工智慧系統內部構造、推理邏輯、技術介面、輸出結果提供明確説明,正確反映人工智慧系統産生結果的過程。在設計、研發、部署、維護過程中建立並實踐安全開發規範,盡可能消除模型演算法存在的安全缺陷、歧視性傾向,提高魯棒性。
讓大模型給出的結果更精準,是大模型落地到企業端的基礎,可見治理此類風險對整個行業的重要性。
在和北京商報記者交流時,楓清科技創始人兼CEO高雪峰表示,大模型在企業落地時會遇到一系列問題,主要是因為大模型自身的局限性、黑箱問題以及數據或者知識的問題,“由於大模型的複雜性過高,涉及大量參數和層,使得可解釋性變得更加困難,推理過程不透明,往往是基於大量參數網路的序列預測。大模型生成內容的邏輯與依據很難給出相應的解釋,或者是其內容生成的概率分佈,人們無法理解,即使是專業研究人員也很難理解模型是如何得出某個結論的,普通用戶更難以理解模型為什麼輸出這樣的內容”,高雪峰詳細説。
全國網路安全標準化技術委員會秘書處主要負責人表示,《框架》的發佈,對推動社會各方積極參與、協同推進人工智慧安全治理具有重要促進作用,為培育安全、可靠、公平、透明的人工智慧技術研發和應用生態,促進人工智慧的健康發展和規範應用,提供了基礎性、框架性技術指南。同時,也有助於在全球範圍推動人工智慧安全治理國際合作,推動形成具有廣泛共識的全球人工智慧治理體系,確保人工智慧技術造福於人類。
(責任編輯:朱赫)