全文閱讀
 
 
 

人工智慧未來發展方向在哪兒?全球如何規範治理?

發佈時間: 2023-11-28 16:22:34   |   作者: 綜合   |   責任編輯: 李鑫

 

時間:2023年11月24日

嘉賓:中國科學院自動化研究所研究員、類腦智慧實驗室副主任、人工智慧倫理與治理中心主任、聯合國人工智慧高層顧問機構專家組專家曾毅

中國網:各位網友大家好!《中國訪談》世界對話,歡迎您的收看。從衣食住行到大國重器,從萬米深海到浩渺太空,快速發展的人工智慧技術,正在以前所未有的方式,悄然改變著這個世界,不斷突破各行各業的創新邊界。人工智慧為全球繁榮與發展帶來巨大機遇,同時帶來複雜挑戰,很多未知的風險需要全人類攜手應對,人工智慧的全球治理迫在眉睫。

10月18日,中國發佈的《全球人工智慧治理倡議》,以及11月1日,首屆人工智慧安全峰會發佈的《布萊奇利宣言》,都呼籲人們關注人工智慧的安全風險,加強全球協作。當下,人工智慧的發展到了怎樣的階段?未來社會,會被人工智慧所主導嗎?人工智慧時代的全球治理該怎麼做,有哪些難點?本期節目,特邀中國科學院自動化研究所研究員、類腦智慧實驗室副主任、人工智慧倫理與治理中心主任、聯合國人工智慧高層顧問機構專家組專家曾毅進行解答。

圖為中國科學院自動化研究所研究員、類腦智慧實驗室副主任、人工智慧倫理與治理中心主任、聯合國人工智慧高層顧問機構專家組專家曾毅 攝影/倫曉璇

曾教授您好!歡迎您做客中國網《中國訪談》。

曾毅:您好,各位網友大家好!

中國網:發展人工智慧技術的初衷是造福人類,這方面的成效和進展都非常顯著。目前,全球人工智慧技術的發展到了怎樣的階段和水準?

曾毅:人工智慧作為一個學科提出是在1956年,那時候講的人工智慧和現在大家聽到的人工智慧其實還是挺不一樣的。人類的學習或者是智慧的方方面面能夠被精確地描述,並且你可以用一個機器去模擬它的話,我們把這樣的系統叫做人工智慧。所以,人工智慧最開始提出的時候就是面向通用化的,面向人類水準智慧並且是去模倣人類智慧的。

但實際上,現在在産業當中、生活當中用的人工智慧,其實是一個看似智慧的資訊處理的基礎設施,它可以做數據分析,可以輔助人類做一些任務,但是實際上它的內部機理和人類智慧可能沒有太多的關係。

我認為,在科學上,應該説人工智慧其實這幾十年沒有特別多的進展。但是,它的用戶體驗的水準可以説在今年達到了前所未有的高度,應用的廣泛程度達到了前所未有的高度。所以,應當客觀看待人工智慧的進展。它這種用戶的體驗達到了前所未有的高度是因為大規模數據的積累,大規模算力,具備這樣的基礎設施,在這個基礎之上,然後應用人工智慧的模型和演算法,它能夠具備處理如此海量數據的規模以及人類的反饋等等,再加上很多工程化的處理使得用戶體驗達到了前所未有的水準,但是科學上的進展人工智慧其實還需要進一步的突破。

中國網:就像您説的,人工智慧這些年飛速的發展其實分兩個方面,一個是科學方面的進展相對來説沒有那麼快,但是應用大家的感受是非常良好的,您怎麼看待未來人工智慧發展的前景以及方向呢?

曾毅:人工智慧的發展,未來應當呈現至少兩個途徑。一個途徑是,我們在産業當中使用的,這種比較寬泛的看似智慧的資訊處理工具的人工智慧,它要從現在的看似智慧但是有時候還會犯很多人不犯的錯誤的這個階段,讓它把資訊處理變成真正的具有一定程度的理解能力。所以,現在大家看到人工智慧雖然説它在體驗上絕大多數情況下好像還不錯,但是當它犯錯的時候它犯的其實很多是人不會犯的錯誤。

中國網:比如前段時間我們看到新聞有機器殺人的情況出現,這其實還都給大家帶來很多擔憂和恐慌的。

曾毅:所以人工智慧缺乏真正的理解能力,如果它是一個資訊處理的工具它就仍然會(犯錯).其實我認為人工智慧比人類最大的優勢是什麼,人是很難遍歷生活當中、場景當中所有的錯誤的,但是人工智慧這一點是比人強多了,所以它會在人很不經意的時候遍歷人所有的錯誤,這也就是人工智慧現在真正的風險所在。所以,我其實就想起來“現代控制論”最重要的奠基人之一羅伯特·維納1960年時,在《科學》期刊上曾經寫過一篇文章裏有一句話,他説,“我們最好非常確定我們讓電腦幹的事情是我們真正本來的意圖。”這句話什麼意思呢?就是你不管作為程式員還是作為用戶,要非常精確地描述你的用戶需求,但是你自己也要把風險避免清楚。但這實際上現在的技術上就很難做到。近期的生成式人工智慧的發展,特別是類似于最近OpenAI又推出了一個版本叫做GPT Turbo,可以讓用戶基於自然語言交互的形式生成自己的軟體,這個看起來非常酷,因為你以後甚至不需要去編寫軟體了。我們本科學人工智慧包括電腦科學,一個非常重要的課就是資訊安全,這幾乎是所有的本科生都需要去學習的。

中國網:一個必修課。

曾毅:因為你去構造一個軟體它有可能從哪些方面産生風險這些必須從專業的角度去看,但對於一個用戶來講,如果你讓它説幾句話就生成一個這樣的軟體,可能這種風險和隱患絕大多數的公眾是沒可能掌握的。在這種情況下他創造的軟體如果要在網際網路平臺上服務於成千上萬甚至上億的人時,它的這種風險也就可能波及給上億人。所以,人工智慧應用的前景非常廣泛,應用的範圍也非常可期,但是,隨之而來的這種風險我們至少要同等程度地重視,才能夠保證人工智慧能夠穩健地發展。

中國網:10月18日中國發佈了《全球人工智慧治理倡議》,倡議提出要儘快達成具有全球共識的人工智慧治理的框架以及標準規範,對此您怎麼看?您有哪些建議?

曾毅:中國提出《全球人工智慧治理倡議》,實際上是在全球很多的國家都形成了人工智慧安全倫理治理的規範,但缺乏全球協作這樣的大背景下生成的。世界上有很多區域性的網路,比如經合組織有人工智慧工作組,世界上還有一個叫做全球人工智慧夥伴關係的組織,但這些可以説是全都是區域型的組織,幾十個國家、二三十個國家這樣的,而且它不致力於擴大規模。這個時候來自於發展中國家的聲音,來自於亞洲的聲音很多其實都是被忽略的。

另外,在各個國家的倫理治理甚至是關於人工智慧的法律,相互之間如何具備互操作性,有一個介面能夠協作,這些問題其實都需要全球的協作的機制。應該説中國從2017年發佈了《新一代人工智慧發展規劃》到2019年發佈《新一代人工智慧治理原則》,2021年推出《新一代人工智慧倫理規範》,這一系列的努力之下到2023年的時候,在已經參與了一些全球對話的基礎之上,意識到全球人工智慧治理已經迫在眉睫,在那個文件當中,中國政府表態的是什麼?第一,經中國政府的總結,全球的共識有哪些。第二,全球的協作機制,中國政府認為應當信任什麼樣的機制。雖然全球人工智慧倡議是由中國政府提出的,但是中國政府它的決定並不是説全球的人工智慧治理應該由一個國家來做,而是提出應該積極地支援聯合國來進行全球人工智慧治理的協同。

可以看到,現在所有的人工智慧區域性的對話機制、協作機制其實全都是非常有限的地域性的,而且它很少考慮到其他地域的利益,大國之間的競爭有的時候其實會忽略這個技術、科學比較捉襟見肘的一些國家,它應得的一些發展的機遇,可能給它帶來的風險和隱患。所以,這個時候一定要有一個相對中立的國際協調機制,才能夠做這樣的全球人工智慧的治理。

圖為中國科學院自動化研究所研究員、類腦智慧實驗室副主任、人工智慧倫理與治理中心主任、聯合國人工智慧高層顧問機構專家組專家曾毅接受《中國訪談》專訪攝影/倫曉璇

中國網:所以中國一直在致力於能夠促成這樣一個全球協作的治理平臺?

曾毅:是的。

中國網:在這方面您認為進展如何?

曾毅:首先,基本上從2020年以後中國積極參與了一些真正具有國際性的協作的機制。比如,在2021年的時候聯合國教科文組織的《人工智慧倫理建議書》,這是由193個會員國磋商協調一致發佈的一個關於全球人工智慧倫理治理的第一份真正的共識性文件。再比如説在特定的領域,世界衛生組織成立了專家組,專門為全球的衛生健康領域人工智慧倫理和治理制定了健康領域人工智慧倫理和治理的原則。這兩項主要的都是建議性的,它是一種軟性的約束,它還不是人工智慧的法律。真正有一定區域性代表性的法律性質的實際上是歐盟的《人工智慧法》,它不是針對具體領域制定的,它是針對整個人工智慧及其應用這樣的一個法律,但是,它是非常特定的就是歐盟這個區域。

我國其實在人工智慧立法方面也很早,最開始先是資訊推薦演算法的管理規定,後來又出了深度合成的管理規定,以及今年推出生成式人工智慧的管理辦法。我國立法的特點就是垂直領域,歐盟是水準領域的。垂直領域的好處是對新近的發展能夠非常快地給它管起來,促進它發展的同時避免它沒有注意到的底線的問題。但是現在中國也在發展自己的人工智慧法,因為確實也是需要一個更上位的法律,對未來前瞻性的可能的方向和更廣泛的人工智慧進行規制。

所以,我們看到這些雖然有全球協調,但是,這些全球協調現在其實停留在軟性約束的階段,但是整個全球人工智慧治理體系是從這種倫理治理原則、標準規範、法律,整個要形成一個體系,現在應該説是在這些方面的互操作性,其實還是非常缺乏的。所以,應該説全球人工智慧治理工作現在還處於一個非常初步的、萬事開頭難的階段。

中國網:其實很多國家都意識到形成這樣一個全球合作機制的重要性,但真正推動和落實其實還需要很長的路要走。

曾毅:是。

中國網:《倡議》還提出發展要堅持“智慧向善”的宗旨,要堅決防範恐怖主義、極端勢力以及跨國有組織犯罪集團對人工智慧技術的惡用濫用,尤其是在軍事領域的研發和使用更要謹慎負責,對此您怎麼看?“智慧向善”是我們的宗旨,但如何形成真正的約束和管控呢?

曾毅:首先,發展賦能性。因為人工智慧是一個賦能性的技術,中國在推出自己的人工智慧治理的原則倫理規範的時候,裏面寫得就很清楚,作為一個賦能性技術它應該推進全球可持續發展目標的實現和人類命運共同體的形成,其實這和有些國家有差異的。有些國家的人工智慧就提出需要服務於本國人民,需要服務於本國的價值觀,但我們國家的治理原則和倫理規範是從全球可持續發展目標的實現和人類命運共同體形成的角度去提出的。

什麼是真正的AI向善,所説向善就是全球人類福祉,以此為目標。其實我們説向善,進一步解釋就和倡議中提到的“以人為本”很相關了,我們説的“以人為本”不是human centric人類中心主義,人類中心主義更強調在整個生態中人類的位置,但實際上我們説“以人為本”首先服務於人類,提升人類福祉,但另一方面它會關照人類作為生態的一部分,如何去跟其他的生命和諧共生,人工智慧能否促進人類和其他的生命之間的和諧共生,這背後就是有非常深刻的意義。

剛才你講到,現在有一些國家開始脫鉤斷鏈、構築小院高墻來影響部分國家的人工智慧的發展,我個人看來,這肯定是一個非常錯誤的決定。最終的效果只會促進像中國這樣有自主能力研發人工智慧整個體系發展的國家的自主創新,它會短期內,幾個月內,最多一兩年稍微延緩一下像中國這樣的國家的人工智慧整體發展水準,但是,我相信超不過三年,這些問題我認為對於中國來講都可以解決。所以,在我看來這樣的嘗試會加快中國的自主創新,換到其他的國家我相信其實也是一樣的。所以,它對於真正人類命運共同體,對於我們説全球人類的福祉,都是有百害無一利的。

中國其實也是在這樣的環境下,人工智慧的軟硬體的基礎設施,其實現在應該説是在快速地崛起。當我們在這樣的環境下成長起來,我們如何去對別人,這個就非常關鍵了。所以,我們剛才講到了,如果我們把人工智慧看作是賦能社會發展、生態可持續性的基礎設施,那像中國這樣的負責任創新大國也就有義務把這個基礎設施提供給全球南方國家、中低收入的國家,為它們提供基礎設施的服務。在開發應用的層面,我們國家可以通過“一帶一路”或其他的機制賦能當地,為他們開發更符合他們的語言文化生活習慣的這樣的應用,這樣的話實際上我認為它是一個雙贏的發展。

你剛才講到的一個問題非常關鍵,就是雖然願景是好的,我們應該本著“智慧向善”的目標,但是現在在武裝軍事衝突當中人工智慧慢慢也被引入,用到軍事領域智慧還怎麼向善呢?未來軍事領域的人工智慧如何管理呢?現在對於全球來講這是在人工智慧安全領域最大的挑戰。

首先我想即使是在軍事領域的應用也是有“智慧向善”的理念的。首先在軍事領域,人工智慧作為一種賦能性的技術它可以提升軍事的管理方面的效率,它可以讓態勢感知預測方面的能力有所提升,但是,人工智慧如果應用於構建致命性的自主殺傷武器,這應當是不被支援的。人工智慧因為快速的發展,代替人類決策這個我覺得也不應當被支援。另外,這種軍事人工智慧的武器被民間濫用和惡用的時候,特別是到了恐怖分子的手裏,這時候對於全球來講都是一個巨大的衝擊和挑戰了。更何況是現在人工智慧自主性越來越高的時候,這種風險就變得越來越大了。

最終能不能管控起來,能不能形成在軍事領域的人工智慧的安全倫理、治理的原則、規範、法律,這是一個全球議題。其實在聯合國的場景下,特別是關於致命性自主武器規制的問題也已經進行了很長時間的談判,但是我認為我們遠遠可以比那個做得更好。所以,我相信在全球人工智慧治理倡議的框架基礎上,對於人工智慧在國防軍事領域的應用應該有一個更紮實的推進。

去年在荷蘭召開了負責任的軍事人工智慧論壇,在提升軍事人工智慧安全意識方面也達成了相對廣泛的,有幾十個國家參與的一個共識,當時中國也做了貢獻,也參與了這個共識。但我想遠遠不夠,未來在風險防範、人工智慧風險自動化的檢測經驗分享等等方面,應該在全球國防領域可以進行更多的溝通。

中國網:現在大家普遍的感受是,對於風險防範也好,規則標準法律的制定也好,是慢於人工智慧技術發展的速度的。

曾毅:我覺得這是一個問題,人工智慧的倫理安全治理只會保證人工智慧穩健的發展,防止它的野蠻生長,防止它的濫用,人工智慧的倫理安全治理從來不會阻礙人工智慧的健康穩健的發展,我們要防止的是這種野蠻的濫用,所以,治理它不會阻礙發展。

在這種前提下,應該採取的不是現在的這種相對來説被動性的治理,而是應該更主動性的、前瞻性的(治理),尤其人工智慧領域經常這樣説,有時候國際上也有很多討論,人工智慧可能會給人類帶來風險,甚至是生存風險,甚至威脅到人類的存在,有些人説,這種事情五十年到一百年都不會發生的。但是當你反思這個問題本身的時候,你是不是能夠在五十年到一百年之內能夠找到解決它的方法,未必,所以,這就是説從現在開始思考那個問題有可能都來不及了。

中國網:這不是杞人憂天。

曾毅:對,絕對不是杞人憂天,是你從現在就要開始做好準備,如果你的一切的準備是很完善的,它二十年、三十年、五十年之後才到來,那麼人類有足夠充分的時間去準備。但如果它真正隨著計算智慧化、人工智慧的快速迭代演化、智慧的涌現認知的升級,以一種不可預計的速度人工智慧、超級智慧到來了,這個時候人類完全沒有做好準備,我們如何應對,這個時候對人類社會才是最大的挑戰。

中國網:有的時候我們也會想,為什麼對於安全風險的防範似乎是滯後於我們對這個技術速度的追趕,這兩部分工作是同一批人在做嗎?

曾毅:對於人工智慧風險的預期,絕大多數更具前瞻性的風險的預期,我現在很遺憾地説絕大多數不是由電腦人工智慧的從業者所提出的,比如最開始的時候,霍金、馬斯克,包括物理學家MIT的邁克斯·泰格馬克等等,他們提出的更前瞻的人類面對人工智慧的問題,其實都是從人工智慧的發展相對旁觀者的視角去提出的。因為在人工智慧發展的過程中,人工智慧從業者總會覺得技術的進展不會那麼快,因為在他們看來更多的是需要去解決的問題,智慧水準還非常有限。但是,這些年的實踐,越來越涌現出來的是,由於技術發展認知升級的速度變快,開始風險的判斷預研就顯得非常不足,所以,這些年應該説人工智慧的創新者自身重視到了人工智慧可能的風險、安全和倫理的隱患。所有的擔憂,絕大多數最開始是來自於大規模的工程領域,社會科學領域的一些擔憂。

最開始人工智慧領域的人絕大多數會認為杞人憂天。但這些年,應該説人工智慧領域的從業者,已經對風險的類型、風險到來的速度,也慢慢地首先意識到它;第二,即使是專業人士也很難準確地預測,而且表示出了更多的擔憂。所以,人工智慧風險倫理安全的這些問題,其實未來不是一個人工智慧研究的分支領域,它是所有的人工智慧從業者的必修課。而且即使在這種情況下,即使你提升了這些意識,風險到來的方式仍然很難預期,所以,我們應該感到非常緊迫,而且確實要提前的佈局。

我記得今年,人工智慧大模型進展到將近GPT4的時候,美國生命未來研究所就提出説是不是能夠暫停人工智慧研究六個月。很多人就是不理性地看待這個事情,當時説為什麼要暫停,這個技術的發展大家看不到,那個提議其實在説的事情是,先去處理風險的問題。因為它的進展和風險同步增長的情況下,你對它的進展非常激動的時候,你對它的風險是沒有太多的處置的。在這種情況下,我們應該先把倫理安全風險框架做好,再去推進技術的發展。

圖為中國科學院自動化研究所研究員、類腦智慧實驗室副主任、人工智慧倫理與治理中心主任、聯合國人工智慧高層顧問機構專家組專家曾毅接受《中國訪談》專訪攝影/倫曉璇

中國網:可以説最初這種杞人憂天的聲音來自圈外,但最終它的落實還是需要靠人工智慧行業的從業者來完成。

曾毅:我認為它未來應該變成一個人工智慧的內生的基礎設施,現在是我們用一些規則,用一些檢測來封堵這個可能的漏洞,但是大家要知道,封堵的都是一些臨時處理的方案。

中國網:被動的行為。

曾毅:對,被動的行為。而且它什麼時候又漏了其實你也不知道,因為有些地方現在看起來好好的沒漏的,那只是你沒有發現而已。一旦人工智慧基礎設施有內生的安全倫理的機制,這個時候它就會非常不一樣了,但是要注意一點,雖然我們要非常紮實地去部署人工智慧倫理安全檢測這些評估的工作,但是即使你通過了所有的安全檢測也不能説你沒問題,你只能説,就我現在已知的範圍內沒有發現明顯的問題,沒有發現明顯的問題不代表沒問題。實際上一直要保持一個非常清醒的頭腦,對風險時刻警惕。

中國網:11月1日-2日,首屆全球人工智慧安全峰會召開了,會上也發佈了《布萊奇利宣言》,您作為中國學者也是在會上進行了講話,在這個會上中國傳遞了怎樣的中國聲音和中國態度呢?

曾毅:我認為是這樣,人工智慧的安全是一個全球性的議題,可以説來自於中國的聲音首先是對全球認知的一個一致性的贊同,人工智慧可能存在著近期、長遠的風險,我們都要給予充分的重視,採取充分的行動。在裏面我也提出幾個看法。第一,人工智慧的進展的方式,其實很難預期,進展的速度也很難預期,這樣也就帶來了可能的風險其實也變得難以預期。人類可能並不能成功地預見人工智慧的風險,但我們是否就因此可以放棄,反正我們都預計不準,是不是就可以不去做預研預判了?答案也是否定的,我們絕對不能停止。實際上這樣的話,更要進行前瞻性的這種預研,這個大家還是廣泛地贊同的。

另外,當時對於在人工智慧領域是否適合開源的生態這件事情,其實是存在著廣泛地質疑的。因為人工智慧系統一旦開源,它所有的安全風險倫理的漏洞就更容易被發現,所以大家説是不是不開源就直接提供這些商業性的服務、學術性的服務比較好,這樣的話風險可能還沒有那麼大。但是大家也看到了,幾十年來電腦科學人工智慧的發展之所以這麼迅速,各個國家的技術都能被很多個國家應用起來,正是因為開源帶來的好處。但是在西方國家對於人工智慧是否開源與否的討論,很多的時候是比較一邊倒的。

但是我們從中國發展的和諧共生的觀點來看,風險和機遇一定是相伴相生的,但是如何去最大化它的機遇,最小化它的風險,如何去習得這種平衡,這其實是需要不斷地探索。所以,當時我們也提出了一些方案。甚至,我們看到有些人在發現人工智慧系統的安全隱患時,開始利用這個作為掙錢的契機,就相當於説告訴大家,所有的系統都具備這樣的風險,只有我有解決方案,如果你想買這個漏洞的補救的措施就向我買。我們甚至看到了這樣的嘗試,當時我們也對這樣的嘗試進行了非常鮮明的批評。我們覺得在制度上需要重新設計,而不是要停止開源的人工智慧。而是説,你在發現風險的同時要公佈這種風險漏洞的補丁,不是説你不可以盈利。比如説電腦的時代、資訊技術的時代,也有殺毒軟體是付費的,但是我覺得要有一種新的制度設計,比如公佈了這個大家可以先免費地使用,但有一個使用期,先解決了眼前的問題。

另一方面,我提出人工智慧安全的問題,沒有一個國家能夠獨善其身,你的人工智慧是安全的,但人工智慧是一個全球化的服務,你自己的人工智慧也可能和其他人工智慧系統間存在介面,所以任何一個國家的人工智慧只要是不安全的,全球的人工智慧産業鏈和平臺系統就可能有風險和隱患。

《布萊奇利宣言》現在是28個國家加上歐盟共同簽署的,但是這個範圍很顯然還非常不夠的。所以,在最後其實我也提出了,就是要更包容性的發展,不能使任何一個國家掉隊。所以,我當時也提出了,如果第一年有28個國家,希望第二年有40個國家,未來希望全球能夠參與,其實這也是為什麼中國會去更支援聯合國的協作的機制。

《布萊奇利》宣言是繼聯合國教科文組織《人工智慧倫理全球建議書》的基礎之上具有相當廣泛參與度的一個主要面向民用領域人工智慧的、二十多個國家的共識。但是真正落地,真正全球的這種實踐可能還是要回到聯合國的機制,以及再加上中國和各個國家共同的貢獻,比如來自中國的《全球人工智慧治理倡議》,一個是共識性的我們有表達,但中國當時也提出了很多問題,應當防止“脫鉤斷鏈”,應當防止“小院高墻”,應當防止大國對其他國家的負面影響等等。所以,真正開展全球範圍內的實踐,不管是《人工智慧問題倫理建議書》,還是《布萊奇利宣言》,還是中國的《全球人工智慧治理倡議》,我認為現在都是在為開始做準備,而不是我們已經準備好了。

未來我們應該在聯合國的協作機制之下,來構建一個全球人工智慧治理的網路,這個網路沒有中心,它是一個不同的區域性的節點,進行自主性的協作。當然聯合國也有不同的分支機構,它要去協作這些不同的分支機構,如何去服務於各個國家不同區域性組織之間的協調當中。所以,我認為未來聯合國的機制應該是在前瞻性的議題上提供一定的建議,在全球協調方面去發揮區域性的組織不能發揮的作用,以及需要它站出來進行全球協調的時候,各個國家的領導人應該支援聯合國的這個工作。

更關鍵的是如何在類似于像聯合國提出的Leaving no one behind(不使任何一個人掉隊)的機制之下,大國的創新同時關照到全球所有國家的發展,共用發展,共護安全。

中國網:未來世界各國,如何在對於人工智慧技術的競爭以及安全風險防範方面的合作,這兩者如何達成一個最大的共識,您認為還有哪些難點呢?

曾毅:我認為現在就是對於人工智慧安全風險的認知,各個國家還有不同的認知。在民用的領域,可能存在一定的競爭,但是在人工智慧安全領域其實不存在競爭。因為任何的這些方面的努力、經驗的分享,都會使得人工智慧朝著更安全、更紮實、更穩健的方向發展。所以,人工智慧安全倫理治理方面的合作,在我看來應當是放在第一位的,因為在這方面達成了一致,有了合作的基礎,人工智慧應該往哪個方向去應用,也就有了更多的基礎。中國的實踐以及包括來自世界的實踐,非常重要的一點就是兩件事情。

第一,在人工智慧技術還不是足夠穩健,還沒有達到真正的智慧和智慧水準,還只是一個看似智慧的資訊處理工具的前提下,在能不用的前提下其實也可以不使用。第二,人工智慧不應當遍佈所有的位置,有一句話叫做Make AI everywhere(使人工智慧無處不在),我對這個觀點不太贊同,因為使人工智慧無處不在也就使人工智慧的風險無處不在。所以,其實來自於中國的實踐以及像聯合國教科文組織的建議書當中就提到了,實際上人工智慧應當適度的使用,它就像我們發展城市一樣,城市當中很多部分是規劃的,但你也會發現城市當中還有一部分其實它還是留給人與人之間的交流的。比如説在很特殊的時期,我們可能會開一些線上的會議,但是,當具備開線下會議的條件時,你會發現人們還是非常樂意去線下分享交流,這些並不是技術的賦能,使得技術讓我們遠距離的交流成為可能的時候,人們就永遠地會去使用那樣的技術。

中國網:有些是不可替代的。

曾毅:是的。

中國網:謝謝曾教授為我們帶來精彩的解讀。

(本期人員:編導/主持:佟靜;拍攝:董超劉凱;攝影:倫曉璇;後期:劉凱;主編:鄭海濱)