説到AI,首先你會想到的是什麼?是九段天才棋手柯潔大戰AlphaGo?是自動駕駛?還是跟朋友聊到某個話題時手機秒推送的同類廣告?抑或是讓父母都認不出來的“易容神器”?

從1950年圖靈之問到如今産業的蓬勃發展,人工智慧技術早已滲透到人們生活的方方面面。但迅猛發展的背後,那些因“黑盒模式”引發的技術不可控、數據安全、隱私洩露等問題卻時有發生。人們似乎對人工智慧技術的“無所不能”,從最初的全面肯定轉變為冷靜後的困惑、擔憂與思考。面對科技高速發展帶來的信任危機,人們究竟該如何應對?

首先,我們要搞清楚,何為可信任AI?“可信任AI實際上是通過底層技術框架解決人工智慧應用過程中可能存在的多類問題,由此建立可靠的人工智慧生態。”中國資訊通信研究院華東分院人工智慧與大數據事業部主任陳俊琰在12月14日舉辦的“談雲説AI”技術産業沙龍上表示。

事實上,近年來人臉識別被黑産盯上、買賣隱私資訊等各類圍繞用戶個人隱私數據産生的安全問題常見報端,公眾對於隱私保護、數據安全等問題關注程度也在不斷提高。“如今資訊多源且無法在短時間內追本溯源,如果數據使用存在監管漏洞就會直接導致個人隱私洩露甚至産生直接財務損失。”陳俊琰進一步分析了目前AI技術中的信任危機。

與此同時,AI信任危機還可能引發比較嚴重的人身安全問題。“由於AI技術處在一種黑盒模型基礎上,在一些關鍵領域,例如醫療診斷、自動駕駛等這種性命攸關的行業中,如果出現信任危機就會産生十分可怕的後果。”京東探索研究院的演算法科學家何鳳翔分析説,這些危機會對行業發展、應用落地,都會産生巨大影響。

在此背景下,尋找人工智慧時代隱私保護、政府監管、商業訴求的平衡點,已經成為産學研各界迫切需要解決的問題。華控清交資訊科技(北京)有限公司標準負責人、戰略總監王雲河則認為,在推進可信AI建設的過程中需要各方共同努力。“從法律層面來説,目前有數安法和個保法來為數據安全提供保障,這是可信任AI的硬手段;下一步就是完善行業標準化,可以被認為是可信任AI的軟措施,二者缺一不可、相輔相成。”

談及近年來國際上可信AI的相關政策或者是標準落地情況,陳俊琰總結道:“目前國際上主要是以指南及法案的形式對人工智慧的可信度進行規範,例如2018年《可信人工智慧倫理指南草案》的發佈、2019年《可信賴人工智慧道德準則》等;同時也有在標準制定上的探索,例如構建人工智慧管理框架,對可信AI進行監管以提升信賴度。比方説今年發佈的《關於識別和管理人工智慧歧視的標準提案》、《人工智慧風險管理框架》等。”儘管國外的可信AI做到了法規和標準先行,但也存在不夠靈活,容易産生’一刀切’的問題。

對此何鳳翔則指出,隨著人工智慧可信理念逐漸成為全球共識,在可信AI的技術攻關和標準研製方面,京東探索研究院和信通院白皮書的思路一脈相承,它要確保人工智慧的公平性、可解釋性、穩定性和隱私保護的同時,保障演算法可被人信任,而這也將成為未來人工智慧産業健康發展的必由之路。“京東從基礎理論出發來研究最前沿的問題,從這些理論問題、理論結果出發,設計新的可被信賴的全新AI演算法,再嘗試把這些AI演算法應用到産品中去,完成技術的最終落地。”

與會專家們紛紛表示,目前無論是理論研究還是産業實踐,可信任AI都還有很長的一段路要走。“可信AI涉及範圍廣泛、實操任務複雜,很難由一家企業或者機構憑藉一己之力帶來質的創造與飛躍,所以産學研用全鏈條協作是關鍵;未來業界需構建成熟且開放的生態系統,聚眾家之力才能帶來更多技術、標準以及實踐層面的突破。”何鳳翔説。

綜合來看,目前我國在可信AI建設方面,正在從政策、生態、法律、標準制定等方面綜合發力,例如《國家新一代人工智慧標準體系建設指南》、《促進可信人工智慧發展倡議》等文件的出臺。除了監管部門的通力合作,以信通院、京東為代表的重要機構以及頭部企業,都在努力推進行業倡議、標準研製等工作,未來定會有更多積極進展。

責任編輯:白雨