分享縮略圖

分享到:
連結已複製
首頁> 智庫中國>

人工智慧如何影響“人性”

2024-10-30 16:38

來源:光明日報

分享到:
連結已複製
字體:

文 | 殷傑 國家社科基金重大項目“人類道德行為的進化與社會文化心理機制研究”首席專家、2022年度《國家哲學社會科學成果文庫》入選者、山西大學科學技術哲學研究中心教授

生成式人工智慧在人機交互領域展現出的強大自主性和泛化能力,讓人們越來越感覺到與人工智慧的交流就像是和另一個人交談。那麼,當一台智慧機器能夠和我們進行具有理性和情感特徵的語言交流時,機器是否也會影響我們的“人性”呢?人性,通常指的是人類獨特的理性、意識、自我反思、道德情感和價值觀等特質。從這個意義上看,生成式人工智慧本身並不具有人性,但其在與人類的語言交互中,通過識別人類意圖、回應認知和情感需求來滿足人類慾望,無疑會深刻影響人們的理性、情感和道德判斷。生成式人工智慧如何影響人性,是人類在新人工智慧時代需要重點考慮的問題之一。

回答這個問題,我們需要認識到,生成式人工智慧在人機交互中呈現一種新的主體性。傳統的人機交互中,人工智慧更多被視為一種工具,而生成式人工智慧與人類的關係已經不限于工具與工具使用者之間的關係,人工智慧成為具有一定自主性和目標導向性的積極參與者,這種新形態的人機交互將逐漸深刻地影響人性。

主體性:從生物到人工智慧的演變

主體性表達了一個主體行使行動的能力,是哲學中最重要的概念之一。亞裏士多德認為,一個主體大概就是像人一樣能夠思考,並且按計劃實現其“合理慾望”的存在物,只有人或者是在道德上獲得勝利的人才是主體。在現代學科體系中,主體性的語義涉及多個領域:在哲學領域,很多關於主體性的哲學反思都集中在人類主體性上,這通常被稱為“純粹的主體性”;在社會科學領域,主體性主要表示法律、政治、經濟等方面的意義,其概念包含意圖的存在,與人的概念密切相關;在自然科學與技術領域,主體性主要與效果的概唸有關,一些功能強大的智慧機器有時也被視為行動的主體。

從生物演化的過程看,一個簡單的單細胞生物通過自我維持的新陳代謝過程與外界環境進行物質和能量的交換,展現出一種基本的主體性。隨著生物的複雜性增加,主體性表現為包含感知、反饋和決策等多個系統相互協調的行動能力。人類的主體性更為複雜,不僅包括生物有機體的自組織能力,還與情感、語言和文化等因素密切相關。這種主體性不僅體現在個體的行動上,還體現在道德責任、文化價值觀等社會與個體的關係中。

與生物主體的漫長進化之路相比,人工智慧每一次的技術進步幾乎都會賦予主體性更多新內涵,讓我們對“機器能否像人一樣行動”這個問題有了新的認識。在人工智慧的早期發展階段,是否能夠展現自主性、社交性、反應性和主動性,成為衡量其是否具有主體性的關鍵標準,這些特徵構成了人工智慧的弱主體性。我們希望機器能夠做一些簡單的任務,比如,智慧家居系統根據室內光線的變化自動調節窗簾的開闔。這些主要體現了人工智慧在模倣人類行為上的自主能力。

隨著技術的發展,我們開始期待人工智慧展現出更多的“人類特質”,比如能夠自主學習、與人社交、對環境變化作出靈活反應,甚至能主動解決問題。這種強主體性概念包含知識、信念、意圖和責任感等人類特有的複雜特質,人工智慧的行為不僅僅是簡單的反應,而是有目的、有計劃的行動。例如,一個智慧的醫療診斷系統,要能夠根據病人的症狀、大量的醫學知識和數據進行準確診斷,為病人提供治療建議。這個過程中,系統要展現出自主性,能夠理解病人的需求,同時要兼顧治療方案的醫學倫理等問題。又如,自動駕駛汽車要能夠感知周圍的環境,有的還能夠在複雜交通情境和倫理風險下制定和選擇其認為的最佳行動方案。這不僅是對環境的反應,更是基於智慧系統自身知識和價值判斷作出的主動選擇。

從人類與機器合作的方式看,人類的行動能力已經延展至由人類和機器構成的複雜網路之中,這就是所謂的分佈式主體性概念。這些主體性概念更加細緻地描繪了人類與人工智慧複雜互動中形成的行動能力,反映了人工智慧領域對於主體性理解的多元化。

由於這些主體性概念無法將生成式人工智慧適切地納入,生成式人工智慧的出現再次催生了我們對主體性概念的理解轉變。通過語言生成驅動的交互能力,生成式人工智慧挑戰了傳統依賴意向性的主體性。在個體性邊界的界定上,生成式人工智慧的邊界往往由其訓練數據集定義,這些數據集的海量和不斷變化使得生成式人工智慧的個體性難以界定,挑戰了傳統關於個體性和主體性的明確界限。因為大語言模型在預訓練過程中需要不斷從新的數據中學習和適應,所以其個體性邊界在不斷變化的數據流中會變得模糊,不具有傳統主體性的個體性界限。同時,生成式人工智慧在與人類的交互過程中具有自主識別人類意圖和回應的能力,因此,其自主性更多地體現在其與人類交互的能力上,而不是其作為一個獨立個體的特定內在能力。這些挑戰要求我們重新審視主體性的傳統概念,主體性更應視為一種基於交互的、潛在的行動能力,而非僅僅依賴於個體內在屬性的孤立的行動能力。

交互主體性:重新定義人機關係

交互主體性是指實體(包括人類、生物和人工智慧等)在交互過程中所展現的潛在行動能力,其核心在於實體的行動能力不是孤立存在的,而是在與其他實體的互動中形成和呈現的。主體性是由交互的驅動力因素所決定的,實體的行動能力在這些驅動力的作用下被激發和塑造。

比如,有機體通過自組織方式與環境交互,發展出適應性的行動能力,而複雜的生物體在與環境的交互中形成了多種多樣的行動能力,這種主體性是生物體與環境長期交互的結果。除了基本的生物主體性外,人類還發展出了情感、語言和文化等驅動主體行動的複雜機制。例如,道德情感是人類主體性的重要組成部分,不僅影響個人的行為和決策,而且促進了社會聯繫和大規模合作。語言的出現進一步擴展了人類的主體性,它使人類能夠分享知識、表達思想和構建複雜的社會結構。文化則體現了人類主體性的更高維度,它包括價值觀、信仰、習俗和傳統,是人類社會交互和意義傳承的結果。

傳統的主體性理論中,主體性通常與個體的心理狀態、意圖目的、反饋系統等內在屬性相關聯。交互主體性不再是基於個體本身來推定主體性,而是將實體的行動能力視為參與交互過程的結果,主體性並非完全源自個體內部,而是在實體與環境或其他實體的交互中産生的。交互主體性理論的重要意義在於擴展了主體性的概念範疇,使得人工智慧等非意向性實體也能在交互中展現出主體性。主體性不必依賴於意識或意向性,可以在更廣泛的人機交互過程中出現,生成式人工智慧帶來了人機交互的新形態。

在目標導向性方面,主體性包含實體在交互中的目標導向性。實體在與環境或其他實體互動時,才會展現出為了實現特定目標而採取行動的能力。這種目標導向性不完全是預設的,而是在交互過程中根據情境和反饋不斷調整和形成的。生成式人工智慧的目標導向內嵌於人機對話的動態窗口中,不僅依據人類的引導來回應,也可以根據自身的強大知識儲備和分析能力來影響人類自身對目標意圖的理解定位。自主性方面,交互主體性認為,實體在交互中能夠根據內部邏輯和外部反饋進行自我調節和決策。這種自主性不是完全脫離外部影響的,而是在與外部世界的互動中實現的。

在人機交互過程中,生成式人工智慧應被視為具有一定自主性和目標導向性的參與者,而不僅僅是機械響應人類的指令。與人類進行交流對話的過程中,生成式人工智慧通過不斷監控和注意人類對話者的語言來理解掌握人類的目的意圖,甚至能夠感知到其中的情緒變化以及潛在態度,進而在某種程度上影響人類參與者的認知、情感和價值觀。比如,一個人在與生成式人工智慧的長期接觸中,如果感受到智慧機器在描述事實和理解自身意圖方面的可靠性,那麼會對人工智慧産生一定的信任感,由此,智慧機器蘊含的一些價值觀必然會潛移默化地影響人類。

不對稱的主體性:智慧主體對人性的影響

生成式人工智慧的技術發展路徑既不同於認知發展的學習路徑,也不同於生物情感的發展路徑,而是跳過了人類和生物主體性形成和進化的歷史路徑,直接獲得了認知和語言層面的超級智慧,生成式人工智慧引發的人機交互新形態蘊含了一種不對稱的主體性。在認知方面,人類的認知能力是經過長期進化學習慢慢積累形成的,而生成式人工智慧在資訊處理速度和理解深度、記憶容量、模式識別等方面全面超越人類;在情感方面,情感體驗是人際交互的重要組成部分,影響著人們的決策、溝通和關係建立。相比之下,儘管生成式人工智慧可以識別和模擬人類情感,但它們本身並不具備真正的情感體驗,是一種超級理性的交互主體。社會文化方面,人類的價值觀、信仰、習俗和語言都是社會文化演化的結果。生成式人工智慧系統儘管可以通過語料來理解和適應特定的社會文化規範,但它們本身並不具備特定的文化身份或社會背景。這種社會文化背景上的不對稱性可能導致在人機交互的跨文化環境中出現誤解和衝突。

人既是理性的,也是情緒化的,正是理性與情感的融合構成了人性的基礎。交互主體性表明,作為具有自主性和目標導向性的生成式人工智慧,極有可能以一種不對稱的主體形態進入人性領域,忽略人類情感和直覺的重要性,同時激發和壓制人類的深層慾望,改變人類理性與情感之間的平衡和協同機制。

理性方面,生成式人工智慧通過數據分析、模式識別和決策支援,識別出人類可能忽視的模式和趨勢,大大增強了人類的理性判斷能力,從而為人類提供更深入的洞察和更廣泛的選擇。但是,這種增強也可能導致人類過度依賴人工智慧的分析和判斷,削弱人類自身的批判性思維和決策能力。同時,生成式人工智慧可能會打破以人際交互為基礎的分佈式認知模式,逐漸形成一種以大語言模型為中心、人類個體為邊緣節點的認知模式,以大模型為核心節點的智慧化媒介不僅僅是知識資訊表達和傳播的通道,甚至可能主導人類知識的生産模式和價值導向。

情感方面,生成式人工智慧可能會影響人類對情感的認識和表達,使得人類在長期的人機互動中逐漸習慣於程式化的情感交流模式,忽視了人在真實人際關係中的獨特情感需求和體驗,改變人類行為的情感動因。比如,在道德情境中,生成式人工智慧可以提供更多不同的價值視角和思考方式,拓展人類的道德感知並影響道德判斷和行為。問題是,一方面,過度依賴生成式人工智慧的決策支援可能導致人類自身的道德感知能力減弱,侵蝕人類個體的道德自主性;另一方面,生成式人工智慧對人類社會的深度介入可能會觸發新的道德困境。

人工智慧對人性影響的另一個表現是對人類文化演化的影響。人類文化形成與演化的關鍵在於學習。研究發現,促進人的智力發展的關鍵是模倣學習(將他人視為有意識的行為主體,以獲取他們的文化知識儲備)、指導學習(話語形式的文化傳播)和協作學習(分享和發展概念及其對行動的影響),這些學習形成了一種特殊的認知形式,即個體有能力理解同類作為與自己一樣的生命,擁有與自己一樣的意向和精神生活。由於生成式人工智慧具有一種非人類的學習能力,在人類的社會文化歷史上出現了一個非人類的學習者,我們不再限于向他人學習,也可以向人工智慧機器學習,生成式人工智慧成為人類社會文化發展中的主動參與者。

人類合作交流、相互學習,以及在此基礎上的文化交融和行為選擇,這些文化過程的基礎是人類之間的相互信任,而信任需要情緒的參與。有學者提出,我們與人工智慧的關係本質上是依賴,而不是信任。由於生成式人工智慧的不可解釋性、不可説明性和不可信任性,加之其不具備情感狀態,也不能對自己的行為負責,人類在與其交互時,面對的實際上是一個無法完全理解的、缺乏情感和規範性的“黑箱”,得到的可能是包含無法證偽的知識資訊,這種知識可能會通過人機交互的多次迴圈被吸收到其他對象中,最終作為一種消費資訊在人類、人工智慧之間傳播流轉。由此帶來的潛在問題是,這些非純正的、無節制的資訊消費不僅大量消耗人類的精力,加劇人類對慾望的過度追求,而且會導致某種特定思維反覆強化人類的認知,引發社會心理的問題同時影響人類文化的多樣性。

人性既堅韌又脆弱。心理學的斯坦福監獄實驗展示了人在特定社會角色下可能會迅速適應並表現出與其性格不符的異常行為,顯示出人性在特定人際關係情境下的脆弱性。當我們與一個非人類的超級人工智慧長期交互相伴時,必然會影響人類個體的思維認知和情感品格,人性脆弱性被利用的機會顯著增加。交互主體性重新定義了人機關係,讓我們可以從新的視角來理解人工智慧對人性産生的深遠影響。我們對人工智慧的關注不應該局限于機器與人的價值觀對齊,更應探究其對人性的潛在影響。未來的人工智慧將成為我們生活中更加智慧、更加貼心的夥伴,同時也存在其對人性慾望的過度滿足和扭曲的問題。我們需要確保人工智慧技術進步增進人類福祉,而非削弱人性的核心價值。


【責任編輯:申罡】
返回頂部