2024年11月25日 星期一

科技 > IT業界 > 正文

字號:  

機器人身陷倫理困局 道德建設成人工智慧艱巨挑戰

  • 發佈時間:2015-07-07 14:15:46  來源:大河網  作者:佚名  責任編輯:湯婧

  在1942年的短篇小説中,科幻作家Isaac Asimov提出了機器人的3條準則——工程安全措施和內置的道德準則,以保證機器人會友善對待人類並使人們免於機器末日。這些準則一是機器人不能傷害人類,或無所作為而導致人類受傷害;二是機器人必須聽從命令,除非這些命令違背第一條準則;三是機器人必須保護自身,但這些保護不能與第一和第二條準則相違背。

  不過,今年5月,在美國布魯金斯學會的一個無人駕駛汽車研討會上,專家討論了在危急時刻無人駕駛汽車應當怎樣做。如果汽車為了保護自己的乘客而急剎車,但造成後方車輛追尾應如何?或當車輛為了躲避兒童進行急轉,但撞到旁邊其他人怎麼辦?

  “在日常生活中,我們能看到越來越多的自動化系統。”研討會參加者、德國西門子公司工程師Karl-Josef Kuhn説。但他問道,研究人員如何能裝配一個可以在“兩個壞主意之間作決定的”機器人?

  隨著機器人不斷發展,這些困境將很快影響到衛生保健機器人、軍事無人機和其他有能力決定幫助或傷害人類的自動設備。研究人員越來越意識到,社會對此類機器的接受程度將取決於它們是否安全,能否遵守社會準則和鼓勵彼此間的信任。“我們需要取得人工智慧在倫理方面的成功。”加拿大溫莎大學哲學家Marcello Guarini説。

  目前,幾個項目正在應對這些挑戰,其中包括美國海軍研究辦公室和英國政府工程資金委員會資助的一些創新項目。他們必須處理一系列難題,例如機器人要進行倫理決策需要哪些智慧、程度如何以及如何將這些轉化成機器指令。電腦學家、機器人學家和哲學家都要投身其中。

  “如果你5年前問我,我們能否製作出有道德的機器人,我將會説不能。但現在,我不再認為這是一個瘋狂的主意。”英國布裏斯托機器人實驗室機器人專家Alan Winfield説。

  學習型機器

  一個被頻繁提及的實驗是一個名為Nao的商業機器人,它會提醒人們按時服藥。

  “乍聽上去十分簡單。”康涅狄格大學哲學家Susan Leigh Anderson説。她與丈夫、哈特福德大學電腦學家Michael Anderson一起致力於機器人研究。“但即便在這種有限的任務中,也涉及許多倫理問題。”例如,如果患者拒絕接受它的藥物,Nao應該如何做?

  為了教Nao處理此類問題,Anderson夫婦給予它許多生物倫理學家解決自治、傷害和患者利益間衝突的案例。然後,學習演算法會將這些案例分類,直到他們找到指導機器人應對新情況的模式。

  通過此類“機器學習”,機器人能從甚至模糊不清的輸入資訊中提取有用的知識。該方法理論上將幫助機器人在遇到更多情況時,在倫理決策方面做得更好。但很多人擔憂,這種進步是有代價的。斯坦福大學人工智慧和倫理學講師Jerry Kaplan表示,這些原則不會被寫進電腦代碼,因此“你沒辦法了解為何一個特殊程式能告訴它某件事在倫理上是對或錯”。

  許多工程師表示,解決這一問題需要不同的策略,大部分人嘗試生成具有明確規則的程式,而非要求機器人自行判斷。Winfield去年出版的實驗結論顯示:什麼是能讓機器人營救掉入洞中的人的最簡單規則?Winfield認為,顯然機器人需要能察覺周圍環境,識別出洞和人的位置以及它相對於兩者的位置。而且,機器人也需要規則以預期自身行動可能産生的影響。

  Winfield的實驗使用了冰球大小的機器人,他讓其中一些“H機器人”代表人類,另一些“A機器人”代表以Asimov命名的倫理機器。Winfield利用類似Asimov第一條法則的規則編成了“A機器人”:如果它認為“H機器人”掉入洞中,它必須前往拯救“H機器人”。

  結果顯示,即便最低限度的倫理機器人也將是有用的。Winfield表示,“A機器人”通常會設法拯救“人類”,並會首先前往離自己近的那一個。有時,通過快速移動,它甚至能兩個都救出。但實驗也顯示出保守行動的限制。在幾乎一半的試驗中,“A機器人”會陷入兩難境地,並使得兩個“H機器人”都“死亡”。

  為了解決該問題,就需要額外的規則,以確定如何選擇。如果一個“H機器人”是成人,而另一個“H機器人”是兒童,“A機器人”應該先救誰?諸如此類的判斷,即便是人類也不能總是達成一致。就像Kaplan提到的那樣,通常“我們不知道如何編纂何種顯性規則”。

  殺人機器爭論

  支援者認為,基於規則的方法有一大優點:它通常能明確機器人為何作出這個選擇,因為是它的設計者編纂了這些規則。對於美國軍隊而言,還有一個重要關注點:哪些自動系統是重要的戰略目標。佐治亞理工學院機器人倫理軟體學家Ronald Arkin指出,對於機器人能否協助士兵或執行致死任務,“你最不想做的事就是把一個自動機器人送到軍隊,並找出它應遵循哪些規則”。如果一個機器人要選擇拯救士兵還是追逐敵軍,它必須預先知道自己要做什麼。

  在美國國防部的支援下,Arkin正在設計一個程式,以確保軍事機器人能按照國際戰爭條約執行任務。一套名為“倫理管理”的演算法將評估射擊導彈等任務是否可行,如果允許機器人行動,答案會是“是”。

  在倫理管理的虛擬測試中,一個無人駕駛飛模擬行器被要求打擊敵方目標,但如果附近有平民設施則不能進行該任務。在各種給定的場景中,該演算法會決定何時將允許無人機完成它的使命。

  目前,美、日、韓、英等國大幅增加了軍事機器人研發的經費,有英國專家稱,20年內“自動殺人機器”技術將可能被廣泛應用。對此,不少人感到憂慮:對於這些軍事機器,人類真的能完全掌控它們嗎?Arkin認為,這些機器在一些情況下能做得比人類士兵更好,只要它們被編程不會打破戰爭規則。

  無論如何,聯合國《特定常規武器公約》近日正再次就殺手機器人主題聽取技術和法律專家的意見。國際機器人武器控制委員會成員、斯坦福大學網路與社會研究中心的Peter Asaro表示,越來越多的人贊同,沒有人類監督情形下的機器人殺人是不可接受的。

  人類、道德和機器

  自從1818年瑪麗·雪萊創作出世界上第一部科幻小説《科學怪人》,到1927年美國西屋公司製造出第一個機器人“電報箱”,再到現在,幻想正在一步步變為現實。機器人在擁有“十八般武藝”的同時,也甚至開始有自己的“情感”。

  近日,日本電信企業軟銀集團宣佈,將在日本推出能識別人的情感並與人交流的機器人Pepper。據介紹,第一代Pepper機器人于去年6月公開亮相,經過1年的研發,新款機器人的智力和情感交流能力都有顯著提升。新款機器人Pepper時而歌唱、時而舞蹈,並且輕鬆自如地與人們互動交流。當受到人們表揚時,Pepper會流露出喜悅之情。當被“戲弄”時,則會委屈地放聲哭泣。隨著科技的發展,情感機器人總有一天會變為現實。這不禁引發了人類新的思考:人應該怎樣對待機器人?

  研究人員表示,如何建造倫理機器人將對機器人的未來發展産生重要影響。英國利物浦大學電腦學家Michael Fisher認為,規則約束系統將讓大眾安心。“如果他們不確定機器人會做什麼,他們會害怕機器人。”他説,“但如果我們能分析和證明他們的行為的原因,我們就可能克服這種信任問題。”在一個政府資助項目中,他與Winfield等人合作,以證實倫理機器項目的産出。

  相比之下,機器學習方法讓機器人能從經驗中提取資訊。這將使得它們更靈活和有用。許多機器人專家表示,最好的前進道路是多種方法結合。“這有點類似精神療法。”Pereira説,“你可能不會只用一個理論。”一個尚未解決的挑戰是,如何將這些方法結合成一個可行的方法。

  • 股票名稱 最新價 漲跌幅