人工智慧的法律三問
發佈時間:2018-05-02 10:28:45 | 來源:人民網 | 作者:倪弋 | 責任編輯:肖寒人工智慧的法律三問
“你怎麼知道自己是機器人?”
“索菲亞”回答:“你不必擔心我們機器人,你們人類又怎麼知道自己就是人類呢?”去年,人工智慧機器人“索菲亞”成為全球首位被賦予法律公民身份的機器人。
當前,科學技術巨大進步推動人工智慧迅猛發展。人工智慧帶來的生産生活方式深刻變革,給法律制度帶來哪些挑戰?現行法治體系又該如何調整和應對?
人工智慧生成物是否具有智慧財産權?
“微明的燈影裏,我知道她的可愛的土壤,使我的心靈成為俘虜了……”這段詩句的創作者不是傳統意義上的“人”,而是人工智慧産品“微軟小冰”。2017年5月,“微軟小冰”創作詩集《陽光失了玻璃窗》出版,作為歷史上第一部完全由人工智慧創作的詩集,它的出版帶來一個新問題——人工智慧生成物是否具有智慧財産權?
中南財經政法大學智慧財産權研究中心主任曹新明認為,根據現行法律,智慧財産權成果是指“人類創造出來的成果”,人工智慧並不能成為智慧財産權意義上的權利主體。“但是,如果將‘人工智慧’創造活動類同於科學研究的‘電腦’,即把人工智慧生成物視為通過人工智慧創造的智慧成果,那麼人工智慧生成物又確實具備‘智慧財産權作品’的某些屬性。”
“問題的關鍵在於對‘人工智慧’的法律定性。”曹新明表示,目前學界對這一問題主要有“工具”和“虛擬人”兩種觀點。“工具”即把人工智慧視為人的創造物和權利客體;“虛擬人”是法律給人工智慧設定一部分“人”的屬性,賦予其能夠享有一些權利的法律主體資格。
“即便承認人工智慧生成物具有智慧財産權,其權利歸屬也是一個亟待解答的問題。”曹新明認為,如果將人工智慧視為“工具”,人工智慧生成物的權利可歸屬於設計開發者,或者所有權人,或者使用權人以及多個權利人共有。如果將人工智慧視為“虛擬人”,則可以把人工智慧生成物看作民法意義上的“孳息”,比如將人工智慧視為“母雞”,那麼人工智慧生成物就是“母雞”下的“蛋”,“蛋”自然歸“母雞”所有者擁有。
此外,創造人工智慧生成物,往往會通過一些程式進行“深度學習”,其中可能收集、儲存大量的他人已享有的智慧財産權資訊,這就可能構成對他人智慧財産權的侵害。曹新明認為,“在這種涉嫌構成侵害智慧財産權的情形下,究竟應當由誰承擔責任,也是一個新問題。”
人工智慧可以替代司法者嗎?
近年來,人工智慧在司法領域的應用逐漸深入:2016年12月,名為“睿法官”的北京法院智慧研判系統上線,為法官提供辦案規範和量刑分析等精準資訊,用大數據推進法律適用和裁判尺度的統一;2017年5月,全國首個“刑事案件智慧輔助辦案系統”在上海誕生,在對上海幾萬份刑事案件的卷宗、文書數據進行“深度學習”後,已具備初步的證據資訊抓取、校驗和邏輯分析能力……
“利用人工智慧,可以幫助司法者得到類似案件的全部先例以及法律、法規、司法解釋等裁判規則,從而減輕他們的工作負累、促進準確適用法律。”中國社會科學院法學研究所研究員支振鋒認為,通過數據採集、整理、分析、綜合,人工智慧在促進司法者依法、全面、規範收集和審查證據,統一司法尺度、助力司法公正等方面,的確大有可為。
但是,這是否意味著人工智慧將替代司法者,實現獨立斷案?顯然不可以。
“人工智慧只是實現司法正義的輔助手段,切不可本末倒置,這是我們始終應該銘記的一條基本原則。”在上海交通大學凱原法學院院長季衛東教授看來,如果過分依靠人工智慧自動生成判決、根據大數據矯正法律決定的偏差等,難免形成審判主體的多重結構,事實上形成程式員、軟體工程師、數據處理商等主體和司法者共執司法的局面。
“此外,如果讓人工智慧超出輔助性手段範疇,全面應用於審判案件,那就有可能把司法引入歧途。”季衛東認為,在案件事實曲折、人際關係複雜、摻雜倫理和感情因素的場合,如何依據法理、常識和人情做出判斷並進行妥善裁決,其實是一種微妙的藝術,需要依靠法官的理性綜合分析。“即使人工智慧嵌入了概率程式,具有深度學習能力,也難以保證做出公正合理、讓人信服的個案裁判。”
支振鋒也認為,就目前的發展情形看,人工智慧還沒有取代司法者的可能,尤其是作為涉及情感與理性、規範與價值的法律訴訟,如果交給人工智慧,這在法律和倫理上,都很難得到支援。“應防範對人工智慧形成‘路徑依賴’,人工智慧越發達,越應強調司法者的職業倫理。”支振鋒説。
人工智慧侵權責任如何認定?
2016年11月,在深圳舉辦的第十八屆中國國際高新技術成果交易會上,一台名為“小胖”的機器人突然發生故障,在沒有指令的情況下,自行砸壞了部分展臺,並導致一人受傷。
人工智慧應用範圍的日益普及,其引發的侵權責任認定和承擔問題,是對現行侵權法律制度提出的又一個新的挑戰。
“從現行法律上看,侵權責任主體只能是民事主體,人工智慧本身還難以成為新的侵權責任主體。即便如此,人工智慧侵權責任的認定也面臨諸多現實難題。”在清華大學法學院教授程嘯看來,侵權發生後,誰是人工智慧的所有者,就應當由誰負責,在法律上似乎並不存在爭議。“然而人工智慧的具體行為受程式控制,發生侵權時,到底是由所有者還是軟體研發者擔責,值得商榷。”
與之類似的,當無人駕駛汽車造成他人損害侵權時,是由駕駛人、機動車所有人擔責,還是由汽車製造商、自動駕駛技術開發者擔責?法律是否有必要為無人駕駛汽車制定專門的侵權責任規則?這些問題都值得進一步研究。
“現實中,人工智慧侵權責任的歸責原則,可能更多涉及危險責任或無過錯責任。”程嘯認為,例如無人駕駛汽車致害,無論從産品責任還是機動車交通事故責任上看,都可以適用無過錯責任。但未來需要考慮的是,人工智慧技術的運用,其本身是否屬於高度危險作業(如無人機),從而決定了是否適用高度危險作業致害責任。
“當前,人工智慧侵權責任中的因果關係、過錯等要件的判斷也變得日趨複雜。”程嘯還舉例説,此前曝光的一些APP“大數據殺熟”和“演算法歧視”,由於代碼的不透明,加之演算法本身的自我學習和適應能力,使得“將演算法歧視歸責于開發者”變得很困難。
在程嘯看來,針對人工智慧帶來的新問題、新挑戰,在法律制度的研究方面未雨綢繆,將為以後的司法實踐贏得主動。“人工智慧已經到來,只是在生産生活的各個領域分佈不均。我們不應等到未來分佈均勻、人工智慧已完全融入生産生活的方方面面時,才想起來從法律進行規範。”程嘯説。(記者倪弋)