【多國計劃加強對ChatGPT監管】4月3日,德國聯邦數據保護專員烏爾裏希·凱爾伯稱,出於對數據安全保護的考量,德國可能會效倣義大利,暫時禁用ChatGPT。他透露,禁用該軟體的行為將屬於德國聯邦數據保護機構的職權範圍。此外,德國聯邦數據保護機構要求義大利監管機構提供有關其阻止ChatGPT的更多資訊。
專家指出,推出兩個月即擁有1億活躍用戶,ChatGPT成為歷史上增長最快的消費者應用程式。固然ChatGPT在實際使用中表現驚艷,然而囿于大規模語言模型自身、數據原因等局限,仍存在成本高昂、資訊洩露等劣勢。如何平衡科技創新與隱私保護仍需各方不斷探索。
多國跟進限制措施
近期,多國對ChatGPT的不滿、恐慌、抵觸等負面情緒正持續發酵。
路透社報道稱,義大利個人數據保護局(DPA)近日宣佈從3月31日起禁止使用ChatGPT,限制OpenAI處理義大利用戶資訊數據,同時對其隱私安全問題立案調查。此舉引發多國監管機構和企業的關注,德國、法國、愛爾蘭等國家已開始準備效倣義大利的做法,加強對ChatGPT的監管。
德國《商報》4月3日援引烏爾裏希·凱爾伯的話稱,原則上,類似遮罩行動在德國也是可能的。德國已要求義大利提供有關其禁令的進一步資訊。
與此同時,據英國路透社報道,法國和愛爾蘭的個人數據監管機構已經和義大利的同行取得聯繫,以了解更多有關該禁令的依據。愛爾蘭數據保護機構(DPC)的一位發言人説:“我們正與義大利監管機構跟進以了解他們採取行動的依據,我們將與所有歐盟數據保護機構協調此事。”
加拿大廣播公司(CBC)4月4日報道稱,加拿大聯邦隱私監管機構宣佈,已經對OpenAI展開調查,因為該公司涉嫌“未經同意收集、使用和披露個人資訊”。報道同時提到,美國總統拜登及其科技顧問委員會在當日舉行的會議上也討論了人工智慧的“風險和機遇”。
據南韓《國民日報》4月3日報道,包括三星、SK海力士、浦項制鐵公司在內的多家韓企正在採取限制使用ChatGPT的措施,嚴防員工泄密。LG電子公司雖然未發出禁令,但要求員工進行“人工智慧及數據使用”方面的培訓。
另據日經新聞網報道,出於對資訊洩露的擔憂,包括軟銀、日立、富士通、三菱日聯銀行和三井住友銀行在內的日本公司已開始限制在業務運營中使用ChatGPT等互動式人工智慧服務。
但瑞典的隱私監管機構表示,目前還沒有禁止ChatGPT的計劃,也沒有與義大利的監管機構取得過聯繫。西班牙的監管機構稱,尚未收到任何有關ChatGPT隱私洩露或是其他方面的投訴,不過並不排除未來展開調查的可能性。
涉嫌資訊洩露風險
這並不是ChatGPT第一次引發爭議。自從該服務推出後,就有人擔心它會被用來作弊、傳播假消息或誤導公眾。
ChatGPT由美國人工智慧研究實驗室OpenAI于2022年11月30日推出,具備非常驚艷的語言理解、生成、知識推理能力。據報道,推出後短短幾天內,其註冊用戶超過100萬,兩個月活躍用戶數已達1億,引爆全網熱議,成為歷史上增長最快的消費者應用程式,掀起了人工智慧領域的技術巨浪。但不可否認的是,當ChatGPT運用更為廣泛的同時,與之相對應的疑問和擔憂也接踵而至。
業界認為,ChatGPT目前技術尚處於早期階段,其自身存在較多問題。首先,身為大規模語言模型,ChatGPT使用成本高昂。ChatGPT基礎大模型訓練成本高、部署困難、每次調用花費不菲,還可能有延遲問題,對工程能力有很高的要求。數據顯示,OpenAI為了讓ChatGPT的語言合成結果更自然流暢,共用了45TB的數據、近1萬億個單詞來訓練模型。這大概相當於1351萬本牛津詞典。訓練一次的費用高達千萬美元。
其次,人工智慧技術在資訊洩露等方面的社會性風險,會因為使用的龐大數據規模被進一步放大。對於司法工作而言,在司法人員和ChatGPT交互過程中,ChatGPT會獲取大量業務相關數據,這些數據在案件未符合司法公開條件之前,不能隨意公開,一旦發生數據洩露,可能導致嚴重後果。此外,OpenAI的使用條款並未對用戶可能輸入ChatGPT的數據資訊提供任何保護。
再次,ChatGPT準確率不高的問題不容忽視。由於ChatGPT的大部分答案都是從已知內容中摘錄或蒐集而來,對於未知的或者ChatGPT知識的盲區,則可能會給出錯誤或者不恰當的建議意見。比如,司法工作人員在辦案工作中常常需要兼顧“天理國法人情”,需要考量辦案的法律效果社會效果政治效果的統一,具有一定的人性化思考,而這些往往是人工智慧有所欠缺和不足的,因此,此時ChatGPT給出的建議,會存在一定程度的偏頗。
數據安全任重道遠
對於ChatGPT暴露出的相關風險,歐盟對個人數據的保護走在前列。據報道,歐盟即將出臺的《人工智慧法案》採取了一種基於風險程度對人工智慧系統進行分類管理的監管思路。但是,類似ChatGPT這樣的生成式人工智慧産品對當前的風險分類方法提出了挑戰。
事實上,歐盟委員會早在2021年便提出了《人工智慧法案》條例草案,不過提案的推進並沒有預想中順利。歐洲議會議員們爭議的核心是監管是否會阻礙創新,即如何平衡數據隱私與避免扼殺人工智慧的創新和投資。其中最具爭議的領域是決定哪些人工智慧系統將被歸為“高風險”。有知情者透露,歐洲立法者目前正就多方面限制“高風險”AI工具的新規則進行磋商。
不僅歐洲議會議員們尚未就提案基本原則達成一致,政府內部也引發了監管ChatGPT與否的爭議。
4月2日,義大利副總理兼基礎設施與可持續交通部長馬泰奧·薩爾維尼在社交平臺上公開發文,批評DPA暫時禁止ChatGPT的決定,稱其遮罩行為太“過度”了。他稱該監管機構的行為“太過虛偽”,這種做法像是沒有常識一樣,“幾乎所有的線上服務都無法避免涉及隱私問題”。在他看來,這項禁令可能會損害國家的商業發展和科技創新,希望能快速找到一個解決方案,早日恢復ChatGPT在義大利的使用。德國政府發言人同樣認為沒有必要禁止ChatGPT。
專家表示,一邊是堅決禁用,一邊是寬容放行。爭議背後也説明,如何保護公民數據隱私、規避隱私洩露風險等問題,將是人工智慧與大範圍覆蓋社會生活後,各主體必須要考慮和解決的問題。過於決絕的“一刀切”做法也不值得提倡,監管政策既要有可商討的彈性空間,也要能讓企業充分釋放出創新活力,更重要的是保護好公民的個人數據隱私與資訊安全。這不僅是義大利、德國如今面臨的難題,各國都需要在保護數據安全和監管防控過度之間做好平衡,用杠桿支撐起科技創新與隱私保護兩端。