隨著大數據、人工智慧等資訊技術的快速發展,我們正在進入“演算法經濟時代”。以深度學習為代表的人工智慧演算法在網際網路資訊傳播、數字經濟發展、資訊産業服務等諸多方面發揮了重要作用,産生了溢出性極強的經濟效益。

然而,當前人工智慧演算法通常依賴於數據驅動的方式,其行為不可控、決策機理難解釋,帶來了公平性、隱私性等相關安全問題。更嚴重的是,人工智慧演算法“黑箱”特性導致了演算法治理困難,加劇了演算法被資本利用的可能,給演算法經濟的發展帶來一定負面影響。事實上,近年來演算法“黑箱”特性的負面作用正在凸顯。一些平臺利用演算法決策侵犯受眾權益的問題層出不窮,傳統監管手段失效,極易引發監管機構信任危機。

監管信任危機的根源在於企業在數據和演算法上的非對稱優勢。當前,基礎數據的所有權和控制權主要集中在網際網路平臺企業,這些企業全程操縱演算法設計、運作、測試和分析,由此佔據著優勢地位。監管部門在“演算法社會”中已經呈現出被邊緣化的趨勢,極易失去對關鍵數據和關鍵演算法的監督權和控制權。這意味著,演算法“黑箱”的存在勢必導致私人利益主觀上俘獲公共利益,以及資本主觀上規避公權力約束等風險的産生。同時,演算法“黑箱”客觀上隱藏了演算法自身存在的缺陷,並可能觸發安全風險,讓監管機構難以審查演算法資訊。監管機構規制演算法的內容與手段均受到限制,難以及時針對演算法問題進行問責和糾偏。

例如,一些平臺基於用戶資訊,對用戶進行“大數據殺熟”,即對於同樣的商品或服務,新用戶的價格比老用戶便宜許多,暗中形成市場歧視,踐踏市場公平,侵害消費者權益和政府公信力。而網際網路平臺企業使用的動態定價演算法存在的潛在缺陷,則可能造成演算法共謀,即在多個動態定價演算法同時被使用時,在人們不知情的情況下通過演算法對市場進行壟斷,從而提高市場價格,産生寡頭。除了商業領域,“黑箱”讓諸多演算法流程處於出不透明的狀態,公民的知情權在相當程度上失去保障。

我國“十四五”國家資訊化規劃提出,應建立健全規範有序的數字化發展治理體系。2022年1月份發佈的《網際網路資訊服務演算法推薦管理規定》,明確反對演算法歧視、大數據殺熟、誘導沉迷等演算法的不合理應用。而演算法治理法律法規、監管標準規範、監管技術及平臺的缺失缺位,是建立健全演算法治理體系中的三大挑戰。

應對挑戰,尤其需要從法律責任、行政責任、道德責任三方面構建演算法治理法律法規體系,推動社會各方之間的合作互信。在法律責任層面,國家應制定、完善相關法律法規,在多元主體之間建立起監管演算法“黑箱”的共同準則。在行政責任層面,著眼于行政審查、行政監管與行政問責,制定技術標準和操作守則,要求平臺企業使用的演算法符合法律法規要求、符合公共利益,削弱或消除演算法“黑箱”造成的負面影響;在道德責任層面,著眼于演算法倫理的嵌入,監管部門應該要求平臺在演算法設計上符合社會一般道德觀念、價值與規範。

針對演算法設計、應用、監管等全流程治理問題,需要構建演算法基礎標準、風險評估標準、安全等級標準以及監管標準等完整的標準規範體系,分級分類,設立全面、清晰、可操作的技術指標體系,做到實時可控可監管。演算法企業應積極主動配合國家演算法治理過程,依據相關標準要求,制定和公開演算法相關資訊,提升演算法透明度。與此同時,發揮社會組織監督作用,加強第三方監督,平衡演算法資訊的不對稱。

針對演算法“黑箱”風險難定義、難監管、難預防、難取證、難追責等問題,需要推動研究院所、企業、高校和政府的技術合作,突破度量評估、行為監測、風險防護、博弈演化、突變溯因等原創理論與核心技術,創建並豐富監管技術手段,確保演算法在各個階段中的安全風險可控。為實現演算法治理自動化、標準化,還應當開展演算法全週期、立體化智慧評測和監測技術的研發,構建可解釋性、隱私保護、公平性、魯棒性兼顧的安全可信的演算法監管平臺。

(劉祥龍 作者係北京航空航太大學軟體開發環境國家重點實驗室副主任,電腦學院教授、博士生導師)

責任編輯:白雨