推動人工智慧向善發展
作為引領新一輪科技革命和産業變革的戰略性技術,人工智慧帶來前所未有發展機遇,同時也帶來前所未遇風險挑戰。習近平總書記在《全球人工智慧治理倡議》中基於人類命運共同體理念提出了“以人為本、智慧向善”倡議,為世界人工智慧治理提供了新視角和清晰溫暖的中國思路。以人為本是指人工智慧的發展必須始終把人放在核心的位置,以增進人類共同福祉為目標,以保障社會安全、尊重人類權益為前提,使人工智慧始終朝著人類文明進步的方向發展。實現以人為本,需引導智慧向善。應完善人工智慧的內部演算法邏輯並規範其外部應用場景,使人工智慧真正成為社會進步的推動者。
“智慧向善”要求人工智慧發展合乎法律與倫理
人工智慧技術若不加以規範和約束,可能成為潘多拉魔盒,釋放並擴大人性中的惡。“智慧向善”強調人工智慧的設計與使用都應遵循法律規範並符合倫理規範,始終朝著對人有益的方向發展。
在個體使用場景中,人工智慧應尊重人類個性,通過技術適配個體需求、維護權益而非壓制個性或侵權。例如在教育領域,人工智慧應摒棄分數導向的過度約束,依託數據分析捕捉學生差異化特徵,推送個性化學習路徑與資源以實現因材施教。在醫療領域,人工智慧可作為醫生的助手,整合患者基因組、病歷、實時監測等數據,構建個人健康畫像,生成多維病情分析報告,結合全球先進醫學知識和案例,輔助醫生制定精準的“一對一”治療方案。同時,採用隱私計算技術體系,使得隱私數據可用不可見,並實現分類分級管理,確保患者資訊安全和隱私。
在生産生活場景方面,人工智慧可成為推動産業高品質發展和實現人民對美好生活嚮往的新動能;在民生服務場景方面,人工智慧需成為提高公共服務品質和宣揚正能量的助推器,成為民眾獲取服務更便捷高效的手段;在社會安防系統構建中,應明確技術應用的邊界,通過個人權益保護法律和隱私計算技術,實現公共安全與個人權利的平衡;在應急場景,可運用人工智慧提升極端天氣和突發事件預測效率,有效減少災害影響。國家可以逐步強化大模型在中央和地方網信辦備案審核中對演算法、參數和應用的要求,推進社會“善治”的實現。
正如我國所倡導的,在世界範圍內,人工智慧必須符合全人類共同價值。應警惕演算法偏見和技術武器化帶來的技術霸權;推動人工智慧資源普惠共用,通過南北合作、南南合作和三方合作等形式,彌合數字鴻溝;在全球性議題中,必須堅持人類對人工智慧的最終決策權,讓人工智慧服務於人類整體的可持續發展。
“智慧向善”需克服的三重難題
技術的“黑箱”難題。人工智慧大模型的決策過程往往缺乏透明性與可解釋性,其內部運作機制如同難以窺探的“黑箱”。一方面,其不可知性源於技術的約束,這使得演算法中潛藏的偏見與歧視難以被察覺,導致在涉及倫理判斷場景中陷入困境。另一方面,這種不可知性還源於道德觀念的高度情境敏感性和文化多樣性難以被編碼為確定的計算規則。技術局限性與道德觀念的複雜性使得人工智慧在複雜倫理抉擇中難以確保與人類價值預期一致。
企業利益與公眾價值的衝突難題。在商業利益驅動下,人工智慧往往優先服務於企業的降本增效,這可能與公眾對公平、安全、隱私保護等價值訴求産生矛盾。例如,追求用戶黏性的推薦系統可能加劇資訊繭房效應,而數據驅動的商業模式容易侵犯個人隱私權與自主選擇權。若缺乏有效的制度約束與外部監督,技術演進路徑便會傾向於資本邏輯而非公共利益,最終導致技術創新與社會福祉之間的失衡。
全球倫理共識缺失與治理細化的挑戰。不同國家和地區在文化傳統、政治制度與發展階段上的差異,導致國際社會對人工智慧關於倫理原則的理解與踐行存在顯著分歧。現有倫理規範多停留在宏觀層面,缺乏可操作的實施標準與違規懲戒機制。沒有具體清晰與可操作的懲戒,倫理規範只能成為一種“軟約束”,其權威性被嚴重削弱,難以對潛在的違規者形成有效威懾。
以“善治”為核心繫統推進“智慧向善”
“智慧向善”的理想能否照進現實,關鍵在於積極擁抱人工智慧發展的同時,能否構建一套行之有效的治理體系,採取科學監管,將理念轉化為行動。針對技術“黑箱”、利益衝突與全球共識缺失這三重現實難題,我們必須以“善治”為核心框架,從治理機制、技術本身、社會生態三個層面系統施策,形成破解難題的合力。
構建以“善治”為目標的人工智慧治理機制。核心在於運用技術與制度雙輪驅動,確保技術發展服務於公共利益。其一,以技術賦能權力監督。可建立人工智慧驅動的權力運作大數據監督平臺,實現對行政審批、執法等流程的全覆蓋動態監管。推動“一網通辦”“一網統管”,提升政府透明度,並利用數據模型科學劃分權責邊界,自動預警越權行為,從技術上防止權力越界。其二,以剛性立法劃定紅線。需前瞻立法,明確技術應用的倫理與法律底線,並建立包含演算法審計、違規重罰的剛性監管體系,以此約束資本無序擴張,平衡企業利益與公眾價值。其三,以人工智慧優化公共決策。利用社會治理數據平臺對政策進行模擬推演與風險評估,提升公共服務的精準性與前瞻性,最終在高效治理中實現權力與權利的動態平衡,夯實“善治”根基。
推動人工智慧技術向可信可控方向演進。從根本上破解“黑箱”困境需要推動人工智慧技術向透明化、可控化方向發展。治理的有效性離不開技術底座的可信賴性,應在技術研發端大力發展可解釋人工智慧,使演算法決策邏輯變得可追溯、可理解。同時,配套建立完善的演算法透明度標準、評估體系及獨立的第三方審計機制,對人工智慧系統進行全生命週期監測與風險評估。借助技術與制度的雙輪驅動,從底層確保人工智慧系統不再是不可知的“黑箱”,而是透明、可控、可審計的治理工具,為“善治”提供可靠的技術支撐。
培育全社會協同的“智慧向善”生態。“智慧向善”社會生態的形成是彌合倫理共識分歧、實現可持續治理的長遠之策。面對全球倫理共識缺失的挑戰,短期需依靠制度約束,長期則依賴於生態培育。這就要求強化技術研發人員的科技倫理教育,將“智慧向善”內化為職業操守;面向公眾廣泛開展數字素養與倫理意識教育,提升其理性認知和風險防範能力;積極營造開放包容的跨領域對話氛圍,促進科技與人文社科的深度交流,逐步凝聚社會價值共識,為形成具有廣泛包容性的科技倫理文化和全球治理框架奠定堅實的社會基礎。
(作者:袁梅花 ,廣西壯族自治區社會科學界聯合會秘書長)







