您的位置: 技術市場>人工智慧>

可控的人工智慧 才有未來

發佈時間:2019-09-02 16:17:29  |  來源:北京青年報  |  作者:張田勘  |  責任編輯:蘇菁

8月29日,2019世界人工智慧大會在上海開幕。世界一些國家的著名科技公司和學界、産業界著名人士參加了此次大會,對人工智慧的發展進行展望分析和獻計獻策。中國騰訊董事會主席兼首席執行官馬化騰在演講時表示,人工智慧(AI)治理的緊迫性越來越高,應以“科技向善”引領AI全方位治理,確保AI“可知”“可控”“可用”“可靠”。

儘管並非所有人都認同AI的這幾個“可”,但這提出了AI的一種方向,即AI産品的研發和使用必須同時具有幾個維度,而不能只發展一個方面。AI或其他科技産品無論如何新穎和實用,也需要在可控的狀態下才能受到人們的歡迎,並且在獲得極大效益的同時,防止和減少對人類社會可能造成的麻煩和災難。這或許是反思世界各國經濟發展與環境保護曾犯下的錯誤後得出的經驗。

確保AI的“知、控、用、靠”也是總結了科技史上的先研發、後管理的傳統思路和做法的教訓。在科技史上,汽車的發明把人類社會帶入了工業文明時代,但是,在汽車的使用過程中,人們卻較難控制其帶來的交通事故和傷害,安全帶的發明和使用就是控制汽車傷害事件的一個要素,但是,汽車發明之後80年才研發出安全帶。

基於這樣的認知,微軟提出了其人工智慧發展的一項原則——每一項AI産品都要經過AI倫理道德審查。AI的迅猛發展也讓人類認識到,如果AI在可用的同時不可控的話,人類將付出更大的代價。因此,對每一種AI産品進行倫理審查和立規也成為AI研發必須同時完成的任務。2016年微軟的CEO薩提亞·納德拉(Satya Nadella)提出了人工智慧的十大倫理:AI必須用來輔助人類;AI必須是透明的;AI必須實現效能最大化,同時又不能傷害人的尊嚴;AI必須保護人的隱私;AI必須承擔演算法責任以便人類可以撤銷非故意的傷害;AI必須防止偏見。

以上6項是對AI産品提出的,但同時也提出了使用AI産品的人類應該擁有的4個倫理原則,包括人要有同理心,這在人與AI共存的世界裏非常有價值;教育,為研發和管理AI提供基礎;保持人的創造力,機器也會繼續豐富和增強人們的創造力;裁決和責任,最終由人來對AI的判決或診斷,或對AI産生的所有結果負責。

如果能實施,這些原則當然能對AI進行有效的控制。但實際上,由於種種原因,很多機構和研發者設計的AI産品並非可控,也因此會在應用時出現種種問題。目前最大的問題就是侵犯人們的隱私,難以保證安全,也因此受到人們的批評和反對。

最近一個比較大的教訓是蘋果産品的語音助手西瑞(Siri)。2019年7月,媒體報道,西瑞會偷錄用戶的隱私語音,如就診時的醫療資訊等,並轉化為聲音檔案,發送給蘋果公司在不同國家的承包商。聲音檔案同時也記錄用戶的位置、使用數據與通訊內容。在經過一番解釋和拉鋸之後,蘋果公司于8月28日就西瑞秘密錄下與用戶的交流,並將文件洩露給外包商正式道歉。由於隱私不保,用戶提出了批評,而且如果這些情況不能改善,就會讓蘋果失去大量的用戶,甚至被市場拋棄。

不過這種情況也表明,人工智慧的發展最終還是取決於是否能受人控制,因為離開了人的控制,AI就無法進化和升級。正是在人與AI的互動情況之下,才有可能讓AI的倫理審查和監控失靈或失范,並造成安全漏洞。

因此,不只是可知可用,可控和可靠也要同時得到保證和保障,AI才會有未來。其他産品同樣如此。


 
分享到:
0