深入推進人工智慧倫理研究
發佈時間:2019-10-30 10:25:59 | 來源:中國社會科學網-中國社會科學報 | 作者:潘玥斐 | 責任編輯:李培剛作為新一輪科技革命和産業變革的重要驅動力,人工智慧已經被廣泛應用於不同行業及領域,深刻影響著人類社會的變革,對人們現有的法律規範、倫理標準和社會生活等提出了新的挑戰。在此背景下,人工智慧倫理研究日益受到學界重視。
人工智慧倫理研究引發關注
華東師範大學哲學系教授顏青山表示,當前人工智慧倫理研究中,有以下幾個方面值得關注。一是克服倫理恐慌情緒。大多數人對人工智慧基本原理的了解還沒有達到科普水準,常常會基於對人工智慧技術的誤解産生不恰當的聯想。因此,如何對人工智慧原理進行科普值得探討。二是道德程式的內置及其限度。這方面討論的是人工智慧不該做什麼。道德兩難常常也是道德悲劇,人本身也無法給出確定的答案,更不要奢望機器會給出更好的答案。三是為人工智慧研究提供充分的倫理空間。區分人工智慧的研究與應用,為人工智慧研究提供充分的倫理空間是必要的。
南京大學哲學系教授藍江表示,人工智慧發展的最大問題不是技術上的瓶頸,而是人工智慧與人類的關係問題,這催生了人工智慧的倫理學和跨人類主義的倫理學問題。人工智慧的倫理學已經與傳統的倫理學旨趣發生了較大的偏移,它討論的不再是人與人之間的關係,也不是人與自然界的既定事實之間的關係,而是人與自己所發明的産品之間的關聯。
大連理工大學人文與社會科學學部教授李倫認為,人工智慧作為一種全新的技術,對人類社會産生了巨大的影響。人工智慧引發的一些問題可能是已有倫理學理論無法解決的,形成所謂的“理論真空”,迫切需要倫理學在學理上做出分析與回應。我們加快推動人工智慧的倫理研究,可以促進具體實踐問題的解決,使人工智慧更好地造福人類。
多領域推進人工智慧倫理研究
“人工智慧的倫理風險並非虛構。”中國社會科學院哲學研究所研究員段偉文表示,不加反省地對人工智慧採取樂觀態度,會忽略或無視人工智慧對個人和社會造成的潛在威脅,由此引發的倫理風險既得不到事先防範也難以事後糾正,最終釀成難以挽回的後果。這不僅會破壞整個社會對人工智慧的信任,還會打擊公眾對發展新興科技的信心。
“構建人工智慧倫理的規範者指引框架,應該是人工智慧倫理研究中最優先關注的領域。”北京師範大學哲學學院教授田海平表示,因人工智慧引發的許多棘手問題,只有通過人工智慧的“規範者指引”才能做到未雨綢繆。人工智慧倫理的規範者指引框架建設關涉到人工智慧時代的道德建構,我國應在這一領域創建一個公共性的跨學科研究平臺,集合各方面的力量,促進國家層面的框架與標準建設。
李倫認為,人工智慧倫理研究包括人工智慧道德哲學、人工智慧道德演算法、人工智慧設計倫理和人工智慧應用倫理等四個維度。總的來説,人工智慧倫理研究旨在“給人工智慧一顆良芯(良心)”。這意味著人工智慧倫理研究與其他技術倫理研究不同,應圍繞“機芯”和“人心”兩個方面來展開。“機芯”主要是指人工智慧道德演算法,旨在使人工智慧擁有“良芯”,使之成為道德的人工智慧或道德的機器。“人心”主要是指人工智慧設計倫理和應用倫理,旨在使人工智慧研發者和應用者具備“良心”,使人工智慧的設計合乎道德,避免惡意設計,並確保人工智慧被善用,使之造福人類社會。有關“機芯”和“人心”的研究存在諸多基礎性問題,這就需要在人工智慧的道德哲學層面做出回應。人工智慧倫理研究是一個跨學科的研究領域,需要多學科、多部門加強合作,共同推進其發展。
顏青山表示,人工智慧的廣泛應用,以及同其他技術,如虛擬現實技術和物聯網技術的結合,必然導致社會結構的變革。因此,人工智慧倫理研究需要在如下幾方面有所推進:第一,全新社會(擴展現實形成的社會)的可能性及其倫理問題。第二,社會結構改變帶來的經濟和政治倫理問題。擴展現實會給人完全不同的體驗,也會形成完全不同的倫理境況和問題。第三,人工智慧在擴展現實中的道德地位問題。由用戶設定的人工智慧可以像人一樣與其他人進行廣泛交往,那麼其道德地位將是一個值得關注的問題。