分享縮略圖

分享到:
連結已複製
首頁> 智庫中國>

謹防人工智慧“風控”成風險

2024-03-12 16:53

來源:經濟日報

分享到:
連結已複製
字體:

文 | 蘇瑞淇

近年來,人工智慧技術快速滲透各行各業,金融業也不例外。不少金融機構開始嘗試將人工智慧技術應用於風險防控領域,用科技創新來防範金融風險。

當前,我國在“人工智慧+風控”領域進行了積極的嘗試與探索,與國際金融業同行相比,具有一定的先發優勢。在2023年7月的世界人工智慧大會上,騰訊對外發佈了金融風控大模型。同年11月,騰訊與中國資訊通信研究院、中國科學技術大學、新加坡南洋理工大學、中原消費金融、微眾銀行等科研院校及金融機構聯合製定了全球範圍內首個金融風控領域的大模型國際標準。

人工智慧技術會為金融風控帶來什麼?理論上,人工智慧賦能風控,減少了人為失誤和干擾,可以提升風險識別的效率和準確性。然而,考慮到人工智慧技術是尚在發展的新事物,仍不成熟,在金融風控領域貿然推廣可能帶來新的風險。

最令人擔憂的是數據洩露的風險。目前,許多金融機構會選擇與具有人工智慧技術的科技公司在風控領域展開闔作,這些合作往往會涉及數據共用。人工智慧大模型依靠大量的樣本數據進行訓練,數據的規模和品質對風控的準確性有著至關重要的影響。理論上,數據越豐富,大模型精準用戶畫像的能力越強,在信貸審批等方面識別風險的準確度就越高。然而,隨著越來越多的數據被共用,隱私能否被有效保護就成了新的風險挑戰。值得強調的是,金融數據不僅具備數據的一般特性,更包含了國民賬戶資訊、企業資金流轉等重要內容,這意味著金融數據一旦洩露,可能會帶來比一般數據洩露更大的風險。

除了數據洩露外,法律風險同樣不容忽視。從歷史上看,法律法規的修訂往往滯後於新技術的應用。目前,人工智慧技術還存在因數據和演算法失誤生成虛假內容的可能,並在一定程度上造成用戶歧視。一旦大模型生成不準確的金融風控報告,將很難分清是科技公司提供的技術不可靠,還是金融機構提供的數據不可信,這使得法律層面的責任難以被界定,容易出現金融機構和科技公司相互推諉扯皮的現象。在扯皮過程中,客戶貸款審批等合理訴求就可能受到拖延,風險最終由客戶買單。

中央金融工作會議提出,要全面加強金融監管,有效防範化解金融風險。針對人工智慧技術在金融業應用可能帶來的新風險,一方面,要完善法律法規,保障人對人工智慧技術生成結果合理質疑的權利,確保人工智慧技術受到責任追究機制和透明、公平、安全等原則的制約;另一方面,要有效管理金融數據資訊,穩健、謹慎地推動人工智慧技術應用,不斷提高風控技術,對風險管理和預測模型改進優化,讓技術向好向善,預防人工智慧技術在金融領域應用帶來的潛在風險。


【責任編輯:申罡】
返回頂部