分享縮略圖

分享到:
連結已複製
首頁> 智庫中國>

人工智慧不應成為法律主體

2024-08-16 16:31

來源:光明日報

分享到:
連結已複製
字體:

文 | 孫良國 大連海事大學法學院教授

人工智慧的治理是一項複雜的系統工程,也是人類面對的核心問題之一。我國人工智慧的發展要引領世界,就必須設計能夠支撐人工智慧可持續發展的治理機制。其中,法律作為治國之重器,應當在人工智慧的治理中發揮重要作用。在人工智慧的法律治理中,一個重要議題是,人工智慧是否應當成為法律主體。在世界範圍內,此問題引起了巨大的學術爭論和社會爭議,不同甚或對立的觀點不斷登場,遠未達成共識。筆者的觀點是,人工智慧不應當成為法律主體。

從實證法的角度看,立法機關可以通過法律認可任何組織、實體或者其他事物作為法律主體。任何突破傳統法律制度的新制度,都必須是經過價值判斷後的恰當結果。人工智慧是否應當成為法律主體,取決於如下價值判斷:既能夠促進人工智慧的發展,同時也能夠消除人工智慧的不當風險。技術變革往往會伴隨風險,但只要風險可控且不會對人類價值産生不可接受的影響,那麼法律就應採取最優措施來抑制風險。考慮當下功用,兼顧長遠影響,總體來看,維持目前法律制度,不賦予人工智慧以法律主體地位,是人工智慧法律治理的最優解。

人工智慧的發展並不需要其成為法律主體

人工智慧是概括性術語,從機器學習到大規模語言模型等均包括在內。人工智慧是否需要成為法律主體,可以從法律主體的歷史演進規律獲得啟示。

整體而言,法律主體演進的基本規律可概括為從“人可非人”到“非人可人”。即使到近代社會,自然人(公民)之間的權利也是有差別的。只有在現代法治國家,自然人才享有平等的民事權利。不僅如此,法律主體也已經不再限于生物學意義上的人,公司等實體也獲得了法律的明確承認,同時附之以股東或者出資人以自己對公司的出資為限承擔責任。此種承認促進了現代科學技術和組織形式的跨越式變革,推進了人類的文明進步。儘管部分學者列舉或者設想了目前人工智慧應當作為法律主體的具體場景,然而經過仔細分析,這些場景都沒有顯示出人工智慧需要作為法律主體的真正客觀需求,也沒有顯示出既有的法律制度(如代理、公司法等)阻礙了人工智慧的發展而通過使人工智慧成為法律主體會掃清該障礙。

有學者認為,對社會生活的參與是判斷是否設定法律主體的重要因素。這一説法值得商榷。因為參與社會生活的身份有主體和客體之分,人工智慧是作為客體如機器、軟體、程式或系統而參與的。即使客體很智慧,甚至可以在既有技術設計下做出獨立判斷,但此種獨立判斷所歸責的主體仍舊是設置、控制或使用該機器的主體,所代表的依然是設置、控制或使用該客體的主體的意志。事物很重要與法律賦予其法律主體資格是兩個完全不同的問題。例如,對很多人來説,寵物已經成為社會生活的重要部分,其中部分人對寵物的依賴性要遠高於其他事物,但這並不能證成寵物成為法律主體。同理,雖然人工智慧非常重要,但法律仍然沒有使之成為法律主體的內在需求。

從責任能力視角看,人工智慧不能成為法律主體

在民法上賦予法律主體資格的一個重要條件是責任能力。承擔責任意味著,法律主體承受不利的財産負擔,而且該法律主體通常應當是最終的責任承擔者。責任能力的一個前提條件是,法律主體必須有獨立的財産。如果沒有獨立的財産,那麼使人工智慧承擔責任就沒有實質意義。到目前為止甚或是在相當長的未來,我們都很難設想人工智慧需要或者能夠擁有獨立財産。由於這一前提條件並不具備,那麼人工智慧成為法律主體也就沒有必要或者可能。從既有的媒體公開報道的人工智慧導致人身或者財産損害的案件中,我們均可以根據既有法律規定找到需要承擔責任的主體——開發人、設計者、所有者或使用者等。換言之,既有的法律制度能夠解決目前人工智慧所引發的人身或財産損害問題。

進一步説,人工智慧成為法律主體甚至有潛在的不可預計的風險。人工智慧成為法律主體的一個自然推論是,它能夠獨立承擔責任。由於人工智慧的確會導致傷害甚或大規模傷害,如隱私洩露、數據毀壞、人身損害等——到目前為止,即使是專家也很難完全了解大規模模型的內在運作機制,並準確預測未來可能發生的傷害及其規模,而且對如何抑制未來的大模型傷害尚未形成共識。不僅如此,更危險的情形可能是,人工智慧會有意或無意生成執行危險行為的能力,甚至“學習掌握”如何影響人類使用者,進而鼓動特定群體以破壞性甚或毀滅式方式行動。此時,人工智慧承擔責任就意味著開發、設計、運作、使用人工智慧的主體將可以逃避法律制裁,這是極不可取的結果,必須予以避免。儘管“刺穿人工智慧面紗”制度可以減緩上述不利後果,但是該制度應當有嚴格的適用要件,不可常規性地使用,否則就有違人工智慧作為法律主體的設計初衷。

情感、理性、意志不證成人工智慧成為法律主體

情感、理性、意志與人工智慧的法律主體問題有內在關聯。一種觀點認為,賦予法律主體的一個傳統要素是,其必須能夠有情感、理性、意志。儘管人工智慧是以深度學習為基礎,然而,既有的人工智慧大都不存在情感。儘管有些人工智慧的技術領導者認為,人工智慧很快就向有情感的方向發展。然而,即使有情感,甚或是自主情感,人工智慧也不應當成為法律主體。因為相比很多人工智慧而言,很多動物已經具有豐富的情感甚至一定的自我意識。儘管動物可以獲得某些權利,然而從主導價值觀審視,動物依然不能獲得和人一樣完全相同或者高度相似的法律主體身份。我國民法典也採納了此種立場。從規範意義上評價,情感、理性、意志並非賦予法律主體的必備要素。與此相關的是,即使人工智慧的推理能力已經超過了人類,也無法證成賦予其法律主體地位是一種必備或者最優的解決方案。

在比較法上,的確有一些事物尤其是自然資源被賦予了法律主體資格,如部分國家通過立法賦予了珊瑚礁、河流或機器人以法律主體資格。然而我們發現,這些特殊事物都沒有在民事法律中成為法律主體,更沒有在民事基礎性法律——民法典中成為法律主體。2017年紐西蘭通過立法賦予了旺格努伊河的法律主體資格,該法是與旺格努伊河毛利人妥協的一部分,是因為毛利人一直認為該河有生命力,該法的通過能夠給毛利人帶來希望。在特別的法律中賦予其某些特殊利益或者權利,並不能在一般意義上證成其應當成為法律主體。

人工智慧不作為法律主體並不影響人工智慧法律制度的變革

可以預見的是,人工智慧已經或者在未來可能會經受傷害。基於人類的價值判斷以及現代法治文明,法律制度也不應故步自封,一個可能的預備解決方案是,儘管人工智慧不應當成為或者不是法律主體,但是有情感的人工智慧機器人或者其他産品未來可能會受到法律的特殊規制,以保護人類對它們的某些情感利益和其他利益。

人工智慧的複雜性也會産生一些現行法很難有效解決的問題。例如,大多數人工智慧系統都是諸多開發人、設計者、所有人、經營者、用戶之間通過複雜的跨國協議産生的産品,在這一相互獨立的關係的國際化網路中,確定某個或者某幾個主體來承擔責任幾乎不可能。不僅如此,基於不透明性以及一些人工智慧系統的自我學習性,傷害的風險可能是以一種負責開發的主體所不可預見的方式導致的,確定特定實體來承擔責任更是難上加難。這就需要人工智慧法律制度的持續變革。更好擁抱人工智慧的方式是設定適應性的治理框架,以保護人類的文明成果。人工智慧促進人類向好的方向發展,就需要通過多層次制度為基礎的有效治理來促使其具有可解釋性、可預測性、可信賴性。


【責任編輯:申罡】
返回頂部