關於人工智慧你未必知道的十大誤區
- 發佈時間:2016-03-29 07:36:00 來源:人民網 責任編輯:王磊
自從20年前電腦在西洋棋對決中敗陣以來,人們一直認為至少圍棋上電腦是無法勝過人類的。但在AlphaGo4:1完勝南韓圍棋職業九段棋手李世石後,人類感受到了人工智慧(AI)的進化。或許要理解AI的威脅和發展並不那麼容易,但關於AI的種種都將隨著科技的進步而逐漸明朗。日本Livedoor新聞網3月25日的文章裏就為大家解開了一些有關AI的誤區。
誤區1:AI一定無法擁有與人類一樣的感性
紐約大學心理學家Gary Marcus表示,幾乎所有AI相關業者都認為,機械最終會超越人類。部分對此抱有懷疑的人多認為使AI擁有人類般的感性是不可能的,或是説人腦有一些本質上獨特的東西等等,但這些觀點卻並沒有什麼説服力。人類可以説是一種生物機械,本質上與機械是沒有區別的,與電腦一樣存在於物質世界,遵從物理法則。
誤區2:AI擁有自我意識
倫敦帝國學院認知機器人技術學家Murray Shanahan指出,不應混淆自我與智慧這兩個概念。他表示:“自我意識確實是一個充滿吸引力的主題,但是我認為那對於人類級別的AI來説是不必要的。更準確地説,‘意識’是數種心理認知類的特徵,只不過對於人類來説被歸為了一種。”而且,即便有機器人讓人類無法分辨它與人類的區別,我們也不能説它就擁有了自我。
誤區3:無需畏懼AI
Facebook的CEO馬克 扎克伯格認為,我們無需畏懼AI,它們只會帶給世界各種好處,比如在無人駕駛汽車、新藥開發等領域。但他並沒有考慮到,AI帶來的不一定都是善。高智慧的系統或許在特定的領域無所不能,但在其他的領域則不然。另外,大多機械系統並沒有完全考慮到安全層面。一旦有類AI的系統被用在不好的方面,後果難以想像。
誤區4:AI很聰明,所以不會失敗
牛津大學Peter McIntyre與Stuart Armstrong認為,AI一般受程式控制,不認為AI有聰明到可以理解我們期望。他們認為:“超級AI在定義上是在所有領域上都超越人腦的智慧的存在”。“這樣的存在是可以理解我們想讓其所達到的意圖的”。雖然AI被程式所控制,但如果足夠聰明的話它將能夠理解法的精神與人的意圖。
誤區5:我們能解決一切AI的控制問題
當我們製造出一個比人類聰明的AI的時候,我們將面臨能否控制它的問題。比如,事先設置“應該取悅人類”的程式,使其只擁有作為人類的工具的功能,在代碼中寫入對人類的愛與尊敬這樣的概念等等。另外也有觀點認為,為避免其世界觀過於單純,應該寫入接受智慧的、文化的、社會多樣性的程式。但以上都是在想用簡單的語言來給AI植入人類複雜的價值觀。
誤區6:人類會被超級AI毀滅
我們無法斷言AI是否會毀滅人類或者人類將無法控制AI。牛津大學哲學家Nick Bostrom認為,真正超級AI的出現或許是人類所發明的有史以來最大的危機。超級AI想要達成的目標中,可能大多都有消滅人類的理由。但我們無法確定AI會以什麼形式和方式對人類産生威脅。
誤區7: 超級AI是友好的
哲學家Immanuel Kant認為理性與倫理有很強的關聯。神經學家David Chalmers在論文中採納了他的觀點,用於解釋超級AI的進化:“如果這是正確的,那麼可以預想理性爆發于倫理爆發是相連的,那麼(超級AI的)系統會既聰明又懂倫理,可以預想將會是善良的。”但針對聰明的AI就會是善良的這一點,Armstrong認為,“進行反倫理行為的聰明人要比不聰明的更易造成大規模的危害。理性帶給了他們更聰明的為惡的能力而非行善”。某個主體的目標達成能力與他的目的是否正確無關。
誤區8:AI與機器人技術的風險是一樣的
這一誤區源自不少機器人電影。如果超級AI想要毀滅人類的話,它應該會使用更加有效率的方式,比如散播瘟疫、破壞大氣層等等。AI的危險不在於驅使機器人來統治世界,而是其對世界本身的影響力。
誤區9:科幻作品所展現的AI的未來是正確的
科幻作品的確展現了許多作家或是未來學家的想像。但如今超級AI所導致的問題跟那些完全不同。並且人類與AI在本質上的區別,決定了人類不可能完全了解、預測其本質與形式。許多的科幻作品為了作品的趣味性,犧牲了許多科學上的正確性。
誤區10:被AI接手工作是可怕的
AI能夠自動完成工作和AI要毀滅人類是兩碼事。無疑,AI將會替換既存的許多工作。但即使如此,並不是説人類無法面對這種變化了。能從大量的體力腦力勞動中解脫出來難道不是人類的目標嗎?
總而言之,AI會産生大量新的生産方式。 隨著AI的進化,使用AI進行生産的産業也就會進化。將來,我們的基本需求就會更容易得到滿足了。(實習編譯:倪海風 王琦 審稿:馬麗)