霍金等千名專家敦促禁止“殺人機器人”
- 發佈時間:2015-08-04 01:30:34 來源:科技日報 責任編輯:羅伯特
科技日報北京8月3日電 (記者劉園園)1000多名知名科學家和人工智慧領域專家近日簽署公開信,警告可能出現人工智慧軍備競賽,並敦促聯合國發佈針對“攻擊性自動化武器”的禁令。
據英國《衛報》報道,公開信的簽署者包括著名科學家斯蒂芬·威廉·霍金、特斯拉CEO伊隆·馬斯克、蘋果聯合創始人史蒂夫·沃茲尼亞克以及谷歌人工智慧項目負責人米斯·哈撒比斯等。這封信已在網上公開發表,並於日前提交至在阿根廷布宜諾斯艾利斯召開的國際人工智慧聯合會議。
公開信稱:“人工智慧技術已經發展到這樣一種地步:儘管不合法,自動化武器的使用將在幾年內而不是幾十年內會成為現實。這將帶來極大的風險,自動化武器已經被稱為繼火藥和核武器之後的武器的第三次革命。”
這封信認為,人工智慧可以讓戰場對軍事人員而言更為安全,但是能夠自主操作的攻擊性武器會降低戰爭發生的門檻,從而給人類生命帶來更大的損失。
公開信指出,如果某個軍事力量開始研發能選擇攻擊目標並在沒有人類直接操控情況下自動運作的武器系統,會像當年的原子彈一樣引發軍備競賽。而與核武器不同的是,人工智慧武器並不需要具體的、難於製造的材料,因此很難對其生産進行監控。這封信稱,“人類今天所面對的關鍵問題在於,是在全球範圍內啟動一場人工智慧軍備競賽,還是將其扼殺在萌芽狀態。”
新南威爾士大學人工智慧教授托比·沃爾什對這一呼籲表示支援:“我們需要在當下做出決定,這個決定將主宰我們的未來,並事關我們是否走在正確的道路上。”
“殺人機器人”是當今的熱議話題。霍金和馬斯克此前都曾警告説,人工智慧是人類最大的威脅,而且完全人工智慧的發展將導致人類的終結。今年4月,聯合國曾專門召開會議討論了包括“殺人機器人”在內的未來武器的發展,這次會議曾考慮針對某些特定類型的自動化武器頒布禁令,但遭到一些國家的反對。
機器人(300024) 詳細
- 股票名稱 最新價 漲跌幅