機器倫理學:機器人道德規範的困境
- 發佈時間:2015-08-11 01:30:50 來源:科技日報 責任編輯:羅伯特
■新視野
機器人三大法則
科幻小説作家艾薩克·阿西莫夫在他1942年的短篇小説《環舞》(Runaround)中提出了“機器人三大法則”,後來更被幾十篇故事和小説所借用。這些法則是一種保護性設計和內置的道德原則,包括如下三項:一、機器人不可以傷害人類,或看到一個人將受到傷害而不作為;二、機器人必須服從人類的命令,除非這些命令與第一項法則矛盾;三、在不違反第一、第二項法則的前提下,機器人必須保護自身生存。
《環舞》的故事放到現在真是非常合適。近年來,現實生活中的機器人專家也越來越多地引用阿西莫夫的法則:他們創造的機器人正變得越來越自主,以至於需要這類指導。今年5月,華盛頓智庫布魯金斯學會的一個專家小組在談到無人駕駛汽車時,話題轉到了自動駕駛工具在危險時刻該如何應對的問題。如果一輛車需要急剎車來拯救它的乘客,卻可能帶來其他風險,比如導致後面的車輛擠成一團;或者需要急轉彎避讓一個孩子,卻可能撞到附近的其他人——這些情況下它該怎麼辦?
“在日常生活中,我們看到越來越多的自主性或自動化系統。”參與專家組討論的德國西門子工程師卡爾-約瑟夫·庫恩説,研究人員怎樣設計一台機器人,才能讓它在面對“兩難之選”時作出正確的反應?
按目前的發展速度,這些難題將很快影響到健康護理機器人、軍用無人機及其他有能力作決策的自主設備,而它們所作的決策可能會幫助或傷害人類。越來越多的研究人員相信,社會能否接納這些機器,取決於能否通過編程讓它們的行動達到安全最大化,符合社會規範並增進信任。加拿大溫莎大學哲學家馬賽羅·伽裏尼説:“我們需要一些嚴肅的步驟來弄清楚,在某些道德情景下,讓人工智慧得以成功推理的相關條件是什麼。”
目前有幾個項目都面臨這一挑戰,包括美國海軍研究辦公室和英國政府的工程基金理事會資助的創新項目。他們必須解決棘手的科學問題,比如要作出一個合乎道德的決策,需要哪種類型的智慧,要達到多高的智慧程度,以及這種智慧如何轉化成機器指令?電腦科學家、機器人專家、倫理學家和哲學家們都在共同努力。
“如果你5年前問我,我們能否造出來道德機器人,我可能會説‘不’,但現在我覺得這種想法並不為過。”英國布裏斯托爾機器人技術實驗室的機器人專家阿蘭·溫菲爾德説。
學習案例的機器人
在目前人們經常提到的實驗中,一個叫做“Nao”的商業玩具類機器人經過編程設計,能提醒人們按時吃藥。
“從表面上看,這好像很簡單。”美國康涅狄格大學哲學家蘇珊·安德森説,她丈夫邁克爾·安德森是哈康涅狄格州哈特福特大學的電腦科學家,他們正一起研究這種機器人,“但即使是這種有限的任務,也涉及到不平常的倫理道德問題。”比如,病人如果拒不接受Nao給的藥,它下一步該怎麼辦?如果讓病人跳過這一次,可能會危害他的健康;如果堅持讓他服藥,又會侵犯了他的自主權。
為了教導Nao處理這種兩難的情況,安德森給了它一些案例,在這些案例中生物倫理學家解決了這種病人自主權、危害和利益之間的矛盾。學習演算法隨後會在這些案例中分類選擇,直至找到指導機器人在新情況下如何行動的辦法。
隨著這種“機器學習”的發展,機器人甚至可以從模糊不清的輸入中提取出有用的知識。理論上,這種方法有助於機器人在遇到更多情況時,作出更符合道德的決策,但也有許多人擔心,這種好處也是有代價的。斯坦福大學的人工智慧與倫理學專家傑瑞·卡普蘭説,出現的原則不寫入電腦代碼,如此“你無法知道怎樣編程制定一項特殊法則,來辨別某件事在道德上正確與否”。
編程限定的機器人
許多工程師認為,要避免這一問題需要不同的策略,大部分正在嘗試編寫有明確法則的程式,而不是讓機器人自我推導。去年,溫菲爾德發佈了他的實驗結果:當有人遇到危險,如掉進洞穴時,允許一台機器去救助他的一套最簡單的規則是什麼?溫菲爾德意識到,最明顯的是機器人要有能力感知它周圍的環境——識別洞穴和人的位置,以及它自己相對於二者的位置。但機器人還需要一些規則,讓它能預測自身行為可能帶來的後果。
溫菲爾德的實驗用了幾個曲棍球大小的機器人,他將其中一些設計為“H-機器人”代表人類;另一個則按照阿西莫夫的小説取名“A-機器人”,代表道德機器。他還模倣阿西莫夫的第一法則給A-機器人編程:如果看到H-機器人處在掉入洞穴的危險中,必須來到H-機器人身邊解救它。
溫菲爾德用機器人做了幾十次測試。隨後他很快發現,執行“允許無害法則”面臨著道德困境,如果讓A-機器人看到兩個H-機器人同時瀕臨險境,這時它會怎麼做呢?
溫菲爾德説,結果表明,即使最低限度的道德機器人也是有用的:A-機器人通常會設法去救一個“人”,通常是首先移動到離它稍微近一些的那個“人”身邊。有時它會迅速移動,甚至設法去救兩個“人”。
但實驗也顯示了極簡主義的限制。在近一半的實驗中,A-機器人只是在那裏無助地振動,任兩個處在危險中“人”死亡。要想改善這一點,還需要找到如何做選擇的額外法則。比如,其中一個H-機器人是成人,而另一個是個孩子,A-機器人應該先救哪一個?在做類似這樣的選擇時,甚至人類自己也無法達成一致意見。通常,就像卡普蘭所指出的:“我們不知道明確的規則應該是怎樣的,也不知道該如何編寫它,如此它們必然是不完善的。”
而擁護者認為,以規則為基礎的策略有一個重要優點:機器為何要做選擇,這一點總是很明確,因為設計者制定了規則。
戰場中的“道德管理者”
這也是美國軍方所關心的一個重要問題,自動系統是一項關鍵的戰略目標。機器能否幫助士兵,或執行可能有生命危險的任務。“送一個自動機器人去執行軍事任務,並算出在各種任務中應該遵守的什麼道德法則,這恐怕是你最不希望的事。”喬治亞理工大學的羅納德·阿金説,他正在研究機器人道德軟體。如果一個機器人需要在救一名士兵和追逐敵人之間做出選擇,那事先知道該做什麼是非常重要的。
在美國國防部的支援下,阿金正在設計一個程式,以確保軍用機器人能按照國際公約規則來行事。一套稱為“道德管理者”的演算法能計算出某種行為,比如發射一枚導彈是否被許可,只有在得到肯定答案“是”的情況下才能繼續下一步。
在對“道德管理者”進行的一次虛擬測試中,讓一輛無人駕駛的自動車模擬執行打擊敵人目標的任務——但如果有市民在建築物附近,則不允許這麼做。設定的場景各種各樣,自動車相對於攻擊區的位置也是多變的,市民有時出現在醫院,有時在住宅建築,由演算法來決定何時允許自動車完成其任務。
自主而且軍事化的機器人令很多人震撼。有人認為它們是危險的——圍繞這種機器應不應該被批准已有無數爭論。但阿金認為,在某些情況下這種機器比人類士兵更好,只要它們經過編程,就永遠不會打破戰爭規則,而人類卻可能無視這些規則。
目前,那些正在研究嚴格編程的機器倫理學的科學家傾向於使用代碼,用邏輯的描述,例如“如果一個陳述為真,向前進;如果為假,不要動”。位於葡萄牙裏斯本的“諾娃”電腦科學與資訊實驗室的電腦科學家路易斯·莫尼茲·佩雷拉認為,邏輯是編碼機器道德的理想選擇,“邏輯是我們推理並得出道德選擇的方式”。
寫出一些邏輯步驟指令來做道德選擇是一項挑戰。佩雷拉指出,使用電腦程式的邏輯語言,對假設的情景得出最終結論是很困難的,但這種反事實推理是解決特定道德困境的關鍵。
道德困境邏輯解決
比如哲學中那個著名的道德選擇問題:假設軌道上有一列失去控制的火車,即將壓死正在軌道上的5個無辜的人,你只要扳一下杠桿使其轉到另一條軌道就能救這5個人,但在那條軌道上有另一個旁觀者就要因此而死;或者説,唯一能讓火車停下來的辦法是把這個旁觀者推到軌道上,這時你該怎麼做?
人們通常會覺得,扳一下杠桿讓火車停下來沒問題,但卻本能地抵觸將旁觀者推上軌道的想法。按照基本直覺,哲學家將其作為雙重效應的基本原則,故意施加傷害是錯誤的,即使會帶來好的結果。但如果不是故意的,只是單純地想做好事,施加傷害或許是可以接受的——即旁觀者只是碰巧在軌道上的話。
對於決策過程而言,這一界限是極難分析的。從一開始,程式必須能預見到兩個不同的未來:一個是火車殺死了5個人,另一個是火車殺死了1個人;然後程式必須要問,因為去救5個人的行動會造成傷害,所以這一行動是否不被允許?或者,因為傷害只是做好事的副作用,所以這一行動是被允許的?
為了找到答案,程式必須能告知如果選擇不推旁觀者,或不扳杠桿會發生什麼——這就是反事實推理。“這好像是一個程式在不斷地自行調試,以找到編碼的界限在哪,如此事情就會改變,並預測改變的結果可能是什麼。”佩雷拉和印度尼西亞大學電腦科學家阿裏·賽普塔維加亞已經寫出了一款邏輯程式,能在雙重效應原則的基礎上成功地作出決策,甚至還有更加複雜的三重效應原則,這些考慮了造成傷害是否故意,抑或只是必須如此。
人類、道德與機器
研究人員指出,對未來的機器人技術而言,如何建造道德機器人可能會有重大後果。英國利物浦大學電腦科學家邁克爾·費希爾認為,規則限定系統會讓公眾覺得可靠。“如果人們不確定機器會做什麼,他們會害怕機器人的。但如果我們能分析並證明它們的行為原因,就更可能克服信任問題。”他正在和溫菲爾德等同事共同做一項政府資助的項目:證明道德機器程式的結果總是可知的。
相比之下,機器學習的方法讓機器人能從以往經驗中學習,這讓它們最終會比那些嚴格編程的同伴更加靈活而有用。許多機器人專家則認為,今後最好的方法可能是這兩種策略的結合。佩雷拉説:“這有點像心理治療,你可能不會只用一種理論。”難題仍未解決,就把各種方法以可行的方式結合起來。
隨著自主交通的迅速發展,很快就會面臨這些問題。谷歌的無人駕駛汽車已經在加利福尼亞部分地區試行。今年5月,德國汽車製造商戴姆勒的無人駕駛大貨車開始自行駕駛穿過美國內華達沙漠。工程師們正在努力思考著怎麼給汽車編程,讓它們既能遵守交通規則,又能適應道路情況。“迄今為止,我們一直在嘗試用機器人來完成那些人類不擅長的任務。”戴姆勒公司的發言人伯恩哈德·魏德曼説,比如在長期駕駛中一直保持專注,或在遇到突發情況時緊急剎車。“將來,我們將不得不給那些人們認為很自然的事情編程,因為那對機器來説並不是自然的。”
機器人(300024) 詳細
- 股票名稱 最新價 漲跌幅