曾毅:人工智慧作為賦能工具 可推進全球可持續發展目標的實現
 
時間:2021年12月8日
嘉賓:中國科學院自動化所中英人工智慧倫理與治理中心主任、清華大學人工智慧國際治理研究院首席專家 曾毅

中國網:當下,人工智慧正在深刻的改變著人類生産和生活方式,在帶來顛覆性的技術和創新同時,也面臨著安全、倫理、公平等問題的挑戰,儘快構建平衡包容的人工智慧治理體系成為一項亟待解決的重要議題。伴隨著人工智慧的發展將會出現哪些新的風險和問題,我們如何防範?中國在世界人工智慧的發展版圖中佔據怎樣的位置? 在2021人工智慧合作與治理國際論壇上,中國網《中國訪談》就此專訪中國科學院自動化所中英人工智慧倫理與治理中心主任、清華大學人工智慧國際治理研究院首席專家曾毅。

圖為中國科學院自動化所中英人工智慧倫理與治理中心主任、清華大學人工智慧國際治理研究院首席專家曾毅


中國網:曾老師您好,非常感謝您接受中國網《中國訪談》的採訪。

 

曾毅:你好!

 

中國網:人工智慧現在在我們的生活中越來越普遍,影響也越來越深遠。我們在享受人工智慧所帶來變革的同時,人工智慧治理也成為全球所面臨的一項共同的挑戰。未來如何構建更加公平、包容的人工智慧治理體系,您有怎樣的建議呢?

 

曾毅:謝謝你的問題。我覺得,正如你所説,現在可以説人工智慧作為一種賦能技術,我們用它來變革我們的社會,推進我們社會的發展,但它確實也帶來了各種各樣的問題。我們老百姓經常遇到的問題可能就是,比如説跟個人的隱私保護相關的;那麼另一方面,人工智慧是不是會學到社會的偏見,然後放大這種偏見,這也是個問題。

因為現代的人工智慧技術其實是一種看似智慧的資訊處理工具,所以它不是真正的像我們人類的智慧,它沒有真正的理解能力。我們在構造人工智慧的過程當中,如果不能把理解構造給人工智慧,不能人為地去避免可能存在的風險,那麼人工智慧它可以去遍歷各種各樣的風險,以我們未知的方式。

所以,這是為什麼我們在構造這個工具,使得它賦能我們社會發展和變革的時候,需要去同步地去關注可能存在的各種技術和社會的風險。因為它是一種賦能技術和使能技術,它不是像一些基礎科學一樣,你可以在一個相對獨立的環境下進行研究,因為它服務的對象都是我們社會的公眾,甚至是政府。

 

中國網:涉及到各行各業

 

曾毅:對,如果它缺乏真正的我們説的理解能力,如果我們沒有對它內部和外部的風險進行干預和風險防控,那它將帶來的負面影響也是我們未知的。所以,在發展人工智慧的過程當中,需要特別注重它的風險。

但是有些人會説,如果你去治理它,是不是就相當於延緩了它的發展,其實完全不是這樣的。我們需要的是什麼樣的人工智慧呢?我們需要的不是野蠻生長的人工智慧,我們需要的是一個負責任的人工智慧,它能夠健康、穩健地發展。任何可能存在的紅線,都是不需要去嘗試的。

 

中國網:在人工智慧的治理框架建立上,國際的合作和共識是非常重要的。那您認為,目前達成一個人工智慧治理的國際共識上還存在著哪些困難和挑戰呢?

 

曾毅真正需要的是全球的協作,當我們把這些倫理原則放在一起分析的時候,你會發現它們之間並不存在所謂的競爭,他們之間80%、90%的內容實際上是存在共識的。可能有10%-20%的內容在不同國家,不同的政府機構提出的,它有一定的差異,而這種差異其實是互補。我們在談到一個具體概念時,比如説我們的透明性,在不同國家政府間的組織以及解釋的時候可能都不一樣。

像有一些國家説,人工智慧演算法需要開源開放,讓我們知道資訊處理的流程,這個是對透明性的一種解釋;也有一些國家,比如我們國家也認為是這樣的,但是我們做的一些補充,比如人工智慧為人類提供服務的時候,你不能假裝是人類,你要對人類透明你是人工智慧,因為人工智慧它是個工具。現在很多人工智慧在構造過程中,希望去混淆和人類之間的界限。那麼我想這實際上是不太符合發展人工智慧的原則,因為現在的人工智慧既不具有意識也不具有真正的理解能力。

 

中國網:就是在情商方面還是沒有任何發展的。

 

曾毅:它根本沒有任何的情商。所以它仍然是一種資訊處理工具,我們不能混淆它和人之間的概念。所以你看到,通過剛才這個小例子,不同國家之間的原則實際上是互補的關係。所以,國際共識現在在慢慢地形成,在11月底、12月初,聯合國教科文組織發佈的《人工智慧倫理建議書》,在這個規範的形成過程當中,教科文組織首先是成立了一個由24個專家組成的專家組,然後來撰寫它的初稿。那麼這24個國家是産生於193個會員國的遴選,(我)很有幸作為24個專家之一來參與撰寫的過程。

當有了初稿以後,193個會員國進行了政府間專家的磋商,所以最終在聯合國的第41屆大會上進行表決,整個過程現在得到了193個會員國的認可。所以,在今年教科文組織的大會上正式發佈了全球的人工智慧倫理的指南。我想這個也是關於人工智慧,人類歷史上最大的共識,也是最大的公約數了。

未來真正形成了這個全球的共識,最關鍵的是如何去落地,各個國家如何在自己國家相關的倫理、法律、標準的制訂過程當中融合進去全球的共識。

 

中國網:剛才您説,我們達成了一個全球性的倫理的共識,未來更重要的工作是它的落地。那除了這方面之外,您認為還有哪些工作是我們可以做的,比如説技術方面的還是文化方面的,來使我們人工智慧的治理更加地公平,更加地負責任呢?

 

曾毅:我想,首先一方面,倫理原則主要是在社會的層面形成一些共識,因為人類是脆弱的,所以,我們才需要倫理道德的約束和原則,這樣脆弱的人類才能夠形成一個共同體。但另外一方面,有了這些看上去寫得非常漂亮的原則,甚至是我們需要的原則,但更關鍵的技術落地的層面可能會遇到非常多的挑戰。

我舉個例子來説,在個人資訊保護方面,幾乎每一個國家相關的法律法規都會提出用戶在同意享受某一項服務的時候,可能他的部分數據會被企業採集到。那麼有“知情同意”的時候不能算是竊取,它是(經過)用戶同意的,但有時候用戶可能會覺得,原來你是這樣用我的數據,我不太願意了。所以,我要撤回我的授權。

所以,在我們國家的個人資訊保護規定以及新一代人工智慧治理原則,倫理規範當中都提到,一旦用戶提出授權的撤銷,那麼相關的企業提供的人工智慧服務,要把用戶的數據全部地刪除,這樣的規定,在歐盟的個人資訊保護法GDPR當中,全球的數據保護規範當中也是提到這一點的。但是問題就在於,這一點在技術上的落地,目前來看是存在巨大的挑戰的。因為把數據從服務數據庫當中刪除,這是每個企業都可以做到的,但問題是,人工智慧的服務在應用數據的時候,幾乎很少有人工智慧的服務是從數據庫當中調取用戶的數據,而是把用戶的數據提前地寫到人工智慧模型當中,以模型提供的服務能力來提供線上的服務。可是如果想在人工智慧模型當中刪除數據,這件事情從技術上現在是做不到的,幾乎很難做到。也就是説倫理的原則有一些寫的是我們的社會需要的形態,但是在技術落地的層面,現在的技術還不能夠保證所有的倫理原則切切實實地完全落地。

 

中國網:那怎麼辦呢?

 

曾毅: 首先第一,這樣的需求和遇到的棘手的問題,産業形成的共同問題應當更積極地去跟政策界,去跟學術界溝通,一方面在政策制定過程當中就應當考慮到政策落地的問題,是不是可以做得到。如果技術上還存在著瓶頸,現在是做不到的,是不是要把它變成法律或者是倫理的規範。但就我剛才説的這個話題,它並不是説沒有解決的辦法的。所以,需要企業、學術界和政策界去推動。

我想剛才我們舉的這個例子,從政策上沒有修改的必要,為什麼?因為只有做到這樣,它才能真正地實現了用戶授權的撤銷。真正需要做出改變的是企業和學術界。所以,學術界也應當把這樣的人工智慧,已經對社會産生重大風險,並且下一時刻這樣的風險可能就到來的問題,一定要提上最緊要的日程去解決。所以,在技術落地的層面,倫理原則和我們的法律法規給技術落地提出了很多……

 

中國網:更高的要求。

 

曾毅:更高的要求,然後更緊迫的挑戰。這個挑戰不應當是去放低它的要求,而是應當大家團結起來去直面這個挑戰,迅速地去解決這樣的風險,因為人工智慧的風險時時刻刻都在作用於我們的公眾。

 

中國網:其實這個倫理的要求不應該受限于現在的技術進行妥協,我們應該是要求不變,通過技術的迭新換代和升級來滿足它。

 

曾毅:對,我覺得政策和倫理原則的制訂是要充分了解技術,但不應當為技術所妥協,像你説的,因為解決問題的辦法總有各種各樣的。

 

中國網:其實您剛才説到資訊的問題,我們深有感觸,像我們平時用手機下載一個App的時候,經常會提示您,是不是允許它讀取您手機的通訊錄,手機的媒體資訊等等這些,可能由於資訊的不對等性,有些受眾無法判斷這些資訊的採集是必要的呢,還是一種可以選擇不採集,這個過程中就造成您剛才所説這種資訊的一種無端地被採集進去了。可以説大數據時代,我們就感覺自己是透明。

 

曾毅:對,我覺得技術的應用,它有訴求,但確實技術的發展不能以犧牲我們用戶和公眾的利益為代價。我舉個例子來説,人臉識別大家確實是非常熟悉,但是前一段時間曝光的一個事件,我們的公眾還有記憶,銀行或者其他地方在使用人臉識別的時候採集不光是人臉的資訊,還採集了我們上半身的資訊,但公眾很多是不熟悉的,因為這個App出來的時候總是圈住人臉的部分,告訴你去對準人臉的部分,但實際上它在你採集上半身資訊的時候是沒有告知的,但公眾對這個問題就不滿意了。為什麼採集上半身的資訊不讓我們知道呢?而只是一直在提示我們,好像想誤導我們只採集你的臉。實際不是這樣的,有一些技術專家出來説,採集上半身的資訊是為了進行活體的檢測,就是你不是一張照片,而是一個真正的人。但在我看來,這樣的解釋實際是技術的創新仍然沒有負到責任。

為什麼這麼説呢?就是如果要實現活體的檢測,第一個它的手段是方方面面的,第二個如果非常必要採集上半身的資訊就應當告知用戶,上半身的資訊是會被全部採集的,而不是説我有這樣的需求,所以我就可以不告訴你,這個邏輯是完全不成立的

我想現在很多的人工智慧應用它還停留在過度地索取個人的資訊,對個人的資訊進行濫用。但我想,現在我們國家已經形成了,特別是App的部分形成了由工信部、網信辦等等機構聯合執法的機制,比如説有一些個人的資訊可能存在App上洩露的時候,這樣的App有兩周的整改時間,如果整改合格,那你可能還可以上架,如果不合格,工信部和網信辦可能會把這樣的App下架了。所以,對於企業來講,現在非常大的挑戰,我們可能和兩三年前最大的不同是,兩三年前很多的企業會説,不知道倫理和治理對他們來説是什麼意義。現在的很多企業講了,我們擁抱治理,擁抱更負責任的人工智慧。但其實你會看到一個現象,就是談人工智慧倫理更多的這些企業他們在構造的這個App出現問題的也很多。

所以,這説明什麼問題?説明在學術研究裏叫做“倫理的洗白”,有時候是通過倫理和治理的理念去推廣他們的産品,而不是真正地用倫理和治理去約束和更好地為公眾提供服務。所以,我想這個問題它不僅是我們國家部分企業存在,現在是個全球的問題,可以説全球範圍內人工智慧的應用幾乎都存在哪一個企業談的倫理更多,哪一個企業在提供的服務裏存在的倫理問題也會更多這樣的現象。


中國網:可以説人工智慧技術的發展是日新月異的,它所帶來的諸多倫理以及風險方面的問題也是個動態發展的過程。現在還有個很深的感觸,我們每天打開朋友圈,每個人可能看到的廣告是不一樣的,包括我們刷短視頻、刷新聞的時候,每個人可能瀏覽的內容也是不一樣的,這背後可能是演算法的工作了,那您怎麼看待演算法在人工智慧中所扮演的角色和它的作用呢?

 

曾毅:首先演算法是人工智慧發展的核心,所以任何人工智慧它所帶來的益處和它所帶來的風險,很多時候是通過演算法來體現的。剛才你講的這樣的服務是個性化的推薦,它是基於對用戶數據的認知做出看似智慧的資訊推薦。

有兩種做法,一種做法是很多的産業會把用戶的數據收集到他的伺服器端進行用戶的個性分析,從而提供智慧的服務。也有一種服務是把用戶的數據存在本地,個性興趣的計算、偏好的計算是在本地完成的,數據本身是不遷移到企業的數據庫當中的。那麼這兩種它所面臨的風險是不一樣的。

第一種可以説企業已經收集走了用戶的數據,第二種看似、似乎好一些,但是它也並非沒有風險。比如説本地處理的這個數據,其他的App有沒有可能訪問到這個數據?一旦訪問到的話,那麼這些數據可能會被其他的App所濫用和惡用。比如説我在微信上跟別人説著什麼,打開淘寶的時候,我説的那個內容就自動地跳出讓我去購買,類似于像這樣的一個假設,我們覺得它還仍然是有可能存在著被濫用的風險的。

另外一方面,我們也需要知道,這樣的演算法問題雖然確實給我們帶來了益處,因為它確實幫助我們更好地找到了可能想要的資訊。但是你也會發現,很多的推薦它並不那麼有效,有的時候你可能並不需要,但我想後面更多的風險是什麼呢?大量的用戶數據被收集的時候,可能造成的就是一個類似于資訊繭房的結構,使得我們看到的資訊可能是服務提供商願意讓我們看到的,或者他想讓我看到的。但實際上,我想人類最大的認知的能力就是探索世界不同的可能性,以及用自身來感受不同的可能性,和世界不同的視角。但是類似于資訊繭房的結構會部分剝奪我們這樣的能力,我想這對人類的能動性和人類基本的權利實際還是有一定的影響。

 

中國網:這也是未來我們可以考慮改進的一個方面了。

 

曾毅:我想是這樣的。聯合國教科文組織的這個人工智慧建議書其中一點提出,人工智慧的應用需要把握它的必要性,什麼時候需要人工智慧,什麼時候可以不用。

就像一個城市的發展,你可以用人工智慧、大數據做城市的規劃,做城市的計算。但是城市相當大的部分是它人文的部分,是人與人之間的交互。所以,有一些學者就在講,城市一半是規範出來的,一半是野蠻生長的。所以,在社會發展當中也是這樣的,可能有一部分是人工智慧可以介入去賦能的,但有相當大一部分應該留給它自然生長的機會,這樣仍然保持我們是一個由活生生的人類構成的社會。

 

中國網:對,這點説得很好,雖然人工智慧現在發展得非常迅速,非常得普及,但是它有它的範圍和它的空間。

 

曾毅:它是一個輔助的工具,它不能構造一個全面、虛擬的社會,完全代替現實的世界。

 

中國網:如今的各國發展人工智慧的理念和側重點是各有不同的,但都是非常具有借鑒性和各自的經驗,那您怎麼看待中國在世界人工智慧發展版圖中説佔據的位置?

 

曾毅:我認為,沒有任何一個國家可以真正主導未來人工智慧的發展,我想對於中國、美國、歐洲的任何一個國家都是這樣的。因為人工智慧的未來它仍然是根植于不同的文化在發展,所以每個國家的願景都會有自己的一席之地。

我們講和而不同是和諧共生當中非常重要的組成的部分,我們現在看到人工智慧的倫理的原則在構建過程當中,很多國家希望一致化,完全的一致化,但這個在我們中國的哲學思想當中,是不太一致的。實際上我們講的更多的就是説我們不一定在價值觀上達到完全的統一,但是這並不影響我們的和諧的共生,所以我們講我們要儘量地擴大我們的共識,但是也要尊重這樣的差異,所以整個的人工智慧的發展的過程當中,由於不同的文化背景的差異,歷史的差異,也要尊重這種差異,提供給它這種包容性,因為人工智慧它賦能的社會,它也是有不同的背景的,所以在這個過程當中,也需要人工智慧有這樣的包容性,真正實現了和諧友好。

中國對世界的貢獻,在我們人工智慧治理原則和倫理規範當中都提到了一點叫做和諧友好。和諧是我們中國古典哲學當中非常重要的組成部分,最開始的時候,“和諧”它的概念講的是什麼呢?家庭之間,家庭成員的和諧,不同國家之間的和諧。但是延伸到現在,實際上講的是人類和技術之間的和諧共生,人與生態的和諧共生,技術與生態的和諧共生。所以,我覺得像這些中國傳統的思想在現在有非常多的發展,甚至由技術賦能的社會,它一方面是一個工具,在於我們人類如何去應用它。但另一方面,未來的人工智慧再進一步地發展,它也有可能發展為社會的準成員。那麼在這種情況下,人類、人工智慧和我們的生態當中其他的動物和生物如何形成一個共生的社會?我想這是一個非常關鍵的問題。

現在我們看到更多的是技術和人類的衝突,因為每天暴露出來這樣多的問題,這説明在技術的發展過程當中,技術的進展沒有考慮到人與生態的和諧共生。所以,才會碰到這樣各種各樣的問題。

 

中國網:可以説這也是一個磨合的階段。

 

曾毅:對。另一方面,我們國家發展人工智慧還是希望它作為一種賦能的技術來推進全球可持續的發展。所以,這也是在新一代人工智慧治理原則和倫理規範當中,我們都強調的,中國發展新一代人工智慧,它的願景就是作為一種賦能技術來推進全球可持續發展目標的實現。中國發展的技術也能夠賦能非洲的發展,以及各個人工智慧技術不發達的國家和地區的發展。我想人工智慧的發展非常關鍵的,就是來共用這種發展的成果,共護它的安全。

 

中國網:可以説未來,把人工智慧打造成為一個更好地為人類福祉提供幫助的一個工具。

 

曾毅:是的,包括我們剛才講到的,中國的哲學當中都會講到一個概念“萬物有靈”,實際我們在看待未來可能産生的技術與人類關係的時候,實際上我們非常強調的,就是它與人類,與生態如何去和諧地發展。人工智慧會不會給人類造成災難性的毀滅,我覺得最關鍵的就在於我們如何實現未來的人工智慧。我們是只考慮人類的利益還是把它作為一種賦能的工具,把人類作為整個生態的一部分,通過人工智慧的賦能去推進生態的發展,而在整個全球生態的視角下,人類只是生態的一部分。我想如果以這樣的視角去應用、推進人工智慧的進展,那可能才是真正可持續的人工智慧。

 

中國網:可以説我們往最壞的方向去進行防範,但是我們往最好的方向去努力。

 

曾毅:是的。

 

中國網:謝謝您!

 

曾毅:非常感謝!


(本期人員:主持/責編:佟靜;攝像:王一辰 劉凱;後期:劉凱;主編:鄭海濱)

 

< 閱讀全文 >
< 收起 >
來源:中國網
(本期人員:主持/責編:佟靜;攝像:王一辰 劉凱;後期:劉凱)
網站無障礙