新聞源 財富源

2024年12月19日 星期四

財經 > 滾動新聞 > 正文

字號:  

人工智慧是否會危及人類未來?

  • 發佈時間:2015-01-12 10:27:00  來源:解放日報  作者:俞陶然  責任編輯:羅伯特

  近日,英國理論物理學家霍金語出驚人,預言人工智慧科技如果不加控制地發展,將超越人類智慧,並控制或滅絕人類。無獨有偶,牛津大學哲學教授、人類未來研究所創建者博斯特羅姆近日也指出,超級人工智慧是人類未來最大的存在風險,其風險性高於自然災害、環境惡化、流行疾病。

  兩位英國學者的觀點是否合理?人工智慧會不會發展到人類無法駕馭的超級智慧階段?記者採訪了研究人工智慧哲學的復旦大學哲學學院教授徐英瑾。

  徐英瑾介紹,人工智慧學科緣起于一篇經典論文和一次重要會議。

  1950年,英國數學家、邏輯學家、電腦科學理論奠基人圖靈在《心智》雜誌發表論文《電腦器和智慧》,提出了著名的“圖靈測試”——如果一台機器能夠與人展開對話(通過電傳設備),並且會被人誤以為它也是人,那麼這台機器就具有智慧。

  顯然,這是一個帶有行為主義色彩的“人工智慧”定義,因為該定義沒有從機器內部機制著手,而是通過其外在行為來判斷它是否具有智慧。其好處是,繞開了“智慧的本質”這個眾説紛紜的問題,給人工智慧發展設定了一個目標:開發出能通過圖靈測試的機器。

  1956年,一群學者在美國達特茅斯學院參加會議,探討如何利用問世不久的電腦實現人類智慧。會議籌備期間,後來獲得電腦科學最高獎——圖靈獎的麥卡錫提議用“Artificial Intelligence”(人工智慧)一詞來稱呼這門新興學科,得到了與會者認同。在這次會議上,學者們討論了如何在人類智慧水準上實現機器智慧,而不是用特定演算法解決一些具體問題。舉個例子,IBM公司研製的“深藍”電腦能夠在與西洋棋世界冠軍卡斯帕羅夫的對弈中勝出,但並不能由此認為“深藍”擁有了超級人工智慧。這是因為,它只是在某個方面的能力上超過人類,而且無法通過圖靈測試。

  如果霍金擔心的超級電腦有朝一日問世,那它必定在綜合思維能力上超出人類,這樣才可能擁有“僭越”的想法,以及控制或消滅人類的能力。

  霍金警示的風險理論上存在

  值得“慶倖”的是,目前,人工智慧的全球領先水準與超級人工智慧相去甚遠。學術界普遍認為,世界上還沒有機器能通過圖靈測試。

  對於這一現狀,有三種回應觀點——

  第一種觀點是:圖靈、司馬賀等人工智慧學科元老提出的全面模擬人類智慧的想法,太好高騖遠。這種玄想或許在未來會成真,但目前為實現這個想法做研究,純屬浪費精力。業界目前應做一些踏實的人工智慧研究,滿足於製造解決特殊問題的求解器。徐英瑾發現,許多人工智慧業內人士持這一觀點。由此可見,霍金的警告有點杞人憂天的味道。

  第二種觀點是:全面實現人類智慧的機器是不可能造出來的,就像造不出永動機一樣。學者們提出過多種論證,試圖從哲學、邏輯層面論證這種不可能性,其中非常著名的有美國哲學家塞爾提出的“漢字屋論證”(也稱“中文房間思想實驗”)以及英國理論物理學家、數學家彭羅斯提出的“從哥德爾不完備性定理出發的論證”,但這些論證都遭到了學術界反駁。徐英瑾認為,“漢字屋論證”和彭羅斯的論證都是站不住腳的,超級人工智慧並沒有在理論上“被判出局”。

  第三種觀點與第一種有相近之處,認為全面實現人類智慧的機器是能夠造出來的,但難度很大。如果當下的人工智慧研究路子不改變,那麼點滴成果的積累也未必能質變為全面突破。“我持這種觀點。”徐英瑾説,“所以我認為霍金、博斯特羅姆警示的風險從理論上來説是存在的,但在未來相當長時間內不會成為現實。”

  大數據技術有先天缺陷

  在這位復旦學者看來,如今十分熱門的大數據技術,一旦過度應用於人工智慧領域,就是一條錯誤的路子。

  大數據技術催生了數據科學。與傳統的科學研究範式不同,數據科學不再追求因果關係,而是按照“樣本=總體”的思路對海量數據進行深入挖掘和統計分析,尋求各個事物間的相關性。很多時候,大數據統計出的是“2+2=3.9”這類近似結果,精確度上的略微損失,換來了對事物間相關關係的準確預測。

  徐英瑾認為,大數據分析是西方經驗論哲學在當代的一種表現形式。近代西方哲學分為兩大流派:經驗論和唯理論。經驗論認為,人的感性經驗是一切知識和觀念的唯一來源;唯理論與之針鋒相對,認為具有普遍必然性的知識並非來自經驗,而是來自人與生俱來的理性。大數據研究範式推崇海量數據的採集,那些用於數據採集的攝像頭、感測器等設備好比人類感官的延伸;還推崇大樣本的統計學分析,用它取代因果分析。這種看重經驗採集、貶低理性推理的模式背後,正是經驗論哲學觀。

  就像經驗論有其局限性一樣,大數據分析也有局限。以基於大數據技術的“谷歌翻譯”為例,這種人工智慧系統的研發團隊沒有通過編程定義語法規則,因為完善的語法編程目前還無法實現。他們採用的主要技術方案,是利用大數據統計不斷調整翻譯結果的相關性,優化翻譯結果。這樣做的好處是,翻譯系統會隨著數據的積累而不斷改善。但目前,使用“谷歌翻譯”的結果只能幫助人們大致理解陌生語言,有時候得到的翻譯結果很不通順。“大數據翻譯系統缺少深層語法結構,這種結構好比唯理論看重的先天理性,缺少了它,人工智慧系統就無法譯出完善的自然語言。”徐英瑾説。

  而讓機器“説”出人們在日常生活中説的自然語言,正是圖靈測試所要求的。在人工智慧領域,“自然語言處理”佔有重要地位,已發展成一個相對獨立的研究領域。蘋果手機的Siri、上海企業開發的小i機器人,都是應用自然語言處理技術的人工智慧産品。有興趣的讀者可以對 Siri 和小 i 機器人進行圖靈測試,看看它們的回答是否像人。

  讓機器人服從“絕對命令”

  在好萊塢電影《梯陣陰謀》中,美國國安局設置的超級電腦Echelon(梯陣),能通過調取、分析每個公民的各類資訊,進行行為監控,還可以向人們的手機發送短信,達到不可告人的目的。

  這種超級人工智慧如果在未來成為現實,人類社會將毫無隱私可言。影片結尾,找到Echelon的男主角向它提問:你的宗旨是什麼?Echelon的回答是“保護美國公民的自由權益”。經過一番人機對話,這台電腦“幡然悔悟”,將自身的監視程式刪除了。

  博斯特羅姆認為,科幻電影和小説中常見的自毀程式橋段,並不是解除超級人工智慧威脅的最佳方案。他指出,“我們並不是要永遠抑制超級智慧,或不開發行動自由的超級智慧。”電腦程式的“動機選擇問題”必須得到解決。一種解決方案是將機器的目標模糊化。例如,如果想要它幫助醫生治療某種疾病,可以將目標設為“做有利於人類健康的事”。另一種解決方案是使人工智慧更人性化,為其編入同情和利他主義程式。

  這兩種方案,都與科幻小説家阿西莫夫提出的“機器人三定律”相通。三條定律分別是:第一法則:機器人不得傷害人類,或坐視人類受到傷害;第二法則:除非違背第一法則,機器人必須服從人類的命令;第三法則:在不違背第一和第二法則的情況下,機器人必須保護自己。“這堪稱機器人版的‘絕對命令’學説。哲學家康得提出的‘絕對命令’要求,人應該在任何情況下把自己和他人當作目的,而非手段。”徐英瑾評論道,“未來出現超級人工智慧後,應將這種機器人倫理以立法形式確立下來,防止瘋狂的科學家開發出旨在控制甚至毀滅人類的機器。”

  相關連結

  漢字屋論證

  一個母語是英語、對漢語一竅不通的人,呆在一間只有一個開口的封閉房間裏。屋內有一本用英文寫的説明漢語語法和漢字組合規則的手冊,以及一大堆漢字符號。屋外的人不斷向屋內遞進用漢字寫成的問題。屋子裏的人便按照手冊上的説明,將漢字符號組合成對問題的解答,並將答案遞出房間。

  在這個思想實驗中,屋內人相當於電腦,手冊相當於電腦程式。塞爾想以此證明,正如屋內人不可能通過手冊理解漢語一樣,電腦不可能通過程式獲得理解力,即馮·諾依曼型電腦不可能具備強人工智慧。

熱圖一覽

高清圖集賞析

  • 股票名稱 最新價 漲跌幅