您的位置: 焦點關注>創新資訊>

如何把控人工智慧(科技大觀)

發佈時間:2018-05-15 14:30:49  |  來源:人民日報  |  作者:   |  責任編輯:于金旸

 近年來,隨著人工智慧技術的快速發展,公眾的擔憂有所上升。最響亮的聲音之一來自於已故的斯蒂芬·霍金教授,他認為人工智慧可能會毀滅人類。那麼,該如何看待人工智慧的威脅?應該採取行動控制人工智慧嗎?是否要像對待核能和其他潛在危險的技術一樣,制定法律甚至是國際條約來控制人工智慧的發展?

 回答這些問題之前,首先需要明確的是,人工智慧的成就目前仍很有限。現在的人工智慧系統能夠執行20年前電腦不可能完成的任務。比如,現在全世界每天都有數以百萬計的人在使用文本自動翻譯工具;無人駕駛汽車即將問世,未來10年將出現在馬路上;電腦現在比人更善於識別人臉等。儘管這些成就令人印象深刻,但人們還是不知道應該如何使機器具有意識和自我感知。因此,在可預見的未來,人工智慧接管世界仍將是科幻小説的情節。當然這並不意味著我們可以高枕無憂。

 人工智慧系統越來越多地被用於做出決策,這對人們産生了直接影響。例如,銀行發現人工智慧系統善於預測潛在客戶是否會成為優質客戶——是否會按時還債等。他們可以通過使用大量的客戶記錄,來“培訓”一個人工智慧系統。一段時間後,這一系統將能夠分析潛在客戶的詳細資訊,從而預測其是否優質。對於銀行來説,可以迅速而低廉地決定是否需要一個特定的客戶。但對於客戶自身而言,應該會感到擔憂:如果銀行的人工智慧系統在某種程度上存在偏見怎麼辦?

 這就是演算法偏見。當前人工智慧浪潮的一個特點是,系統無法像人那樣,解釋或合理化其所做的決定。所以,銀行可能會使用人工智慧系統來決定不與你做生意,但卻不能給你解釋原因。這公平嗎?銀行這樣運作合乎道德嗎?誰來對這個決定負責?

 這些問題不容忽視。一種解決辦法是,建議對人工智慧技術的使用進行監管。我認為通過一般法律來管理人工智慧的使用是不現實的,這似乎有點像試圖通過立法來管理數學的使用。一個似乎正在被接受的辦法是,如果軟體做出了影響你的決定,那麼你應該有權知道這個決定是如何做出的,使用了哪些和你有關的數據,標準是什麼。我認為這比較合理。使人工智慧可解釋化和透明化,是當今這一領域面臨的最大挑戰之一。

 在某些情況下,人工智慧決策可能直接事關生死,比如在戰場上使用人工智慧系統。儘管目前還沒有證據表明這種“致命性自主武器”已經被使用,但確實已經具備了可能性。過去5年來,人工智慧領域的科學家們積極行動,希望政府認識到這一問題的嚴重性並做出應對。最近英國政府在一份報告中明確表示,永遠不給人工智慧系統傷害人的權力。

 人工智慧只是一種技術,就像任何技術一樣,可以用來造福人類,也可能帶來危害。條件反射式的立法,對於把控人工智慧不太可能奏效。我們需要以負責和道德的方式使用人工智慧,正如最近全球關於自主武器的討論取得進展一樣,國際社會需要應對解決人工智慧帶來的挑戰。

(作者為英國牛津大學電腦系主任邁克爾·伍爾德里奇)

 
分享到:
0