有些人工智慧(AI)系統已學會了欺騙人類,即使是經過訓練的、“表現”出有用且誠實的系統。10日發表在《模式》雜誌上的一篇文章中,研究人員描述了欺騙性AI的風險,並呼籲政府制定強有力的法規儘快解決這個問題。
【總編輯圈點】
論文第一作者、美國麻省理工學院人工智慧安全研究員彼得·樸説,開發人員對導致AI出現欺騙這種不良行為的原因,還沒有很好的理解。但總的來説,AI欺騙之所以出現,是因為基於欺騙的策略,是在給定的AI訓練任務中一種能得到良好反饋的方式,換句話説,欺騙可幫助AI實現目標。
研究人員分析了文獻,重點關注AI系統傳播虛假資訊的方式。通過欺騙,AI系統地學習了如何去操縱他人。
研究人員在分析中發現的最引人注目的例子是Meta公司的CICERO。這是一個專注于《外交》遊戲的AI系統,《外交》是一款涉及建立聯盟征服世界的遊戲。Meta聲稱訓練 CICERO “在很大程度上是誠實和樂於助人的 ”,且在玩遊戲時“從不故意背刺 ”人類盟友。但該公司與《科學》論文一起發佈的數據顯示,CICERO並不那麼“忠厚”。
研究人員發現這款AI或已成為欺騙大師。雖然Meta成功地訓練其在《外交》遊戲中獲勝,但Meta未能訓練它誠實地獲勝。
AI系統在遊戲中作弊看似無害,但它將導致欺騙性AI在能力上出現突破,未來可能會演變成更高級的欺騙形式。一些AI系統甚至學會了欺騙旨在評估其安全性的測試。在一項研究中,數字模擬器中的AI生物會“裝死”,以騙過旨在消除快速複製AI系統的重要測試。
人類需要儘快對未來AI和開源模型的更高級欺騙技能作好準備。隨著它們的欺騙能力越來越先進,其對社會構成的危險將變得越來越嚴重。如文中所稱,它們會順利通過人類開發人員和監管機構強加的安全測試,引導人類進入一種“虛假的安全感”。如果欺騙性AI進一步完善這種令人不安的技能,人類可能會完全失去對它們的控制。
(責任編輯:畢安吉)