新聞源 財富源

2024年11月24日 星期天

財經 > 滾動新聞 > 正文

字號:  

超級智慧會讓人類毀滅嗎

  • 發佈時間:2015-04-24 00:32:27  來源:中華工商時報  作者:佚名  責任編輯:羅伯特

  2009年,在某個競技場中,瑞士研究人員放置了數百台機器人,機器人身上的程式讓它們在競技場中尋找一個淺色的圓環(實驗中的食物)。這些機器人相互可以溝通,機器人會向同伴發送藍光告訴其他機器人食物的位置。但是隨著實驗進行,研究人員發現某些找到食物的機器人停止閃光、獨佔資源——而源程式根本沒有指示它們這麼做。這到底是機械故障,還是機器人學會了撒謊?

  今天的電腦可以完成越來越複雜的任務,已經具備了接近人類的智慧。超級並行電腦“深藍”在“人機大戰”中戰勝西洋棋世界冠軍卡斯帕羅夫;IBM的超級電腦“沃森”贏得了智力競賽節目“危險邊緣”;微軟的Xbox遊戲機甚至可以通過分析玩家的面部表情評估玩家當前的情緒……一旦出現“超級智慧”,即電腦能夠自己思考而非僅僅對命令進行反應,並且電腦不僅僅在數學和科學能力上超過人類,而且在藝術創造性甚至是社會技能領域也大大超過人腦,人類享受空前便利又會遭遇什麼風險呢?《超級智慧》對此進行了饒有趣味的思索與探討。人類大腦擁有一些其他動物大腦沒有的功能,正是這些獨特的功能使我們的種族得以擁有主導地位。如果機器大腦在一般智慧方面超越了人類,那麼這種新興的超級智慧可能會極其強大,並且有可能無法控制。超級智慧對我們人類將是一個巨大的威脅。

  作者根據海量資訊資料分析認為,與人類智慧水準並駕齊驅的機器智慧有相當大的可能在21世紀中葉實現,可能會更早,也可能會更晚;但是只要這種機器智慧出現,就會很快出現超越人類智慧水準的高級智慧;這會對人類生存産生極其重大的影響,或是産生極好的影響,或是造成人類滅絕。不管怎樣,這都説明我們很有必要去認真研究人工智慧這個議題。

  對於如何控制超級智慧,作者提出了兩大路徑。一為能力控制,分為四類:盒子方法(系統受到限制,只能夠通過有限制的、提前批准的渠道對外界産生影響,包括物理遏制和資訊遏制兩種方法);激勵方法(系統被放置在提供適當激勵的環境中);阻礙發展(對系統的認知能力或影響關鍵內部過程的能力進行限制);絆網(對系統進行診斷測試,如果探測到系統有危險行為,就將其關閉)。二為動機選擇,也分為四類:直接規定(系統裝載直接規定的動機系統);馴化(設計一套動機系統,嚴格限制超級智慧的目標和行為範圍);間接規範(依靠間接手段來確定需要被遵守的規則和需要被追求的價值);擴增(選擇一個已經具有類似人類的、友好的動機系統,對其認知能力進行提升,使其成為超級智慧)。作者提説控制超級智慧的方法聽起來或許因為太過專業而不夠通俗易懂,然而我們只要明白一點就可以了,那就是在超級智慧出現之前,人類需要做好應對準備,而當超級智慧出現,人類應該可以找到控制辦法。

  擔憂超級智慧出現會給人類帶來毀滅性災難,作者並非杞人憂天。儘管微軟研究院科學家表示:“很多人擔憂某一天我們會失去對人工智慧機器的控制,但我完全不擔心這種情況發生。”但是,很多專家表達出與作者同樣的憂慮。英國物理學家史蒂文·霍金稱,人工智慧的完美就意味著人類的滅亡;特斯拉埃隆·馬斯克也聲稱,人工智慧的出現是在“召喚魔鬼”;比爾·蓋茨也憂心忡忡:“我站在警惕人工智慧的陣營一方……我很不理解,為什麼會有人完全不擔憂人工智慧……”

  既然這麼多權威人士表示出擔憂,我們有必要未雨綢繆提前應對,要想到超級智慧一旦出現,人類該如何控制,既充分享受其帶來的便利,又能免除它給人類帶來的潛在威脅,這或許也是該書警世意義所在。

  筆者對超級智慧持樂觀態度。首先,很多電腦科學家認為我們不會迎來註定的毀滅,相反他們質疑人類是否能夠真正實現人工智慧。他們認為光是理解人腦,人類已經走過了漫長的研究道路——包括意識本身是什麼這個問題——更別提將這些知識用來打造一台有感情和自我意識的機器。雖然今天最強大的電腦可以用演算法贏得西洋棋大賽,可以贏得競猜電視節目,可我們還無法創作出能夠寫出感人的詩作,能夠判斷是非的機器人——要製造出完全掌握人類技能的機器人還很遙遠。其次,超級智慧終歸屬於程式系統,而不是像人一樣的自由思維繫統,超級智慧能量始終受人控制,它並不具備自我主動開拓能力。再次,超級智慧的生命取決於人的控制,假如把超級智慧比作翱翔藍天的風箏,那麼人的控制就是係在風箏身上的那根線繩。風箏一旦脫離線繩,結果可想而知。

熱圖一覽

高清圖集賞析

  • 股票名稱 最新價 漲跌幅