> 産經

“智慧+”更應重視安全挑戰

核心閱讀

人工智慧技術和應用飛速發展,在推動經濟社會創新發展的同時,也帶來安全、倫理、法律法規等方面的風險挑戰。

隨著數據越來越多被收集,應用場景增加,用戶個人資訊洩露的風險也隨之提升。

人工智慧的研究和應用要有倫理和法律界限,即應以人類的根本利益和責任為原則。

剛剛結束的全國兩會上,“拓展‘智慧+’”首次被寫入今年的《政府工作報告》,作為未來的重要基礎性技術,人工智慧已連續三年出現在《政府工作報告》中。可以預見,隨著人工智慧、大數據的深入應用,生産生活的數字化轉型是大勢所趨。

人們在擁抱人工智慧、邁向數字社會的同時,也需要正視人工智慧等新技術應用在安全、倫理、法律法規、社會治理等方面的挑戰。只有未雨綢繆,研判和防範潛在風險,才能安享“智慧+”的時代紅利。

  人工智慧應用方興未艾,同時也帶來安全風險隱患

前不久,一項人工智慧深度換臉技術引發爭議。原來,這項技術能做到幾乎毫無痕跡地給視頻中的人物“換臉”,引發人們對隱私和肖像權被侵犯的擔憂。更深的擔憂在於,如果這一技術被濫用,是否意味著大量視頻會被“移花接木”?

今年全國兩會上,人工智慧、大數據等技術應用帶來的安全風險,成為代表委員關注的焦點之一。全國政協委員、360集團董事長兼首席執行官周鴻祎就表示,安全應該成為人工智慧發展的基礎與前提。全國人大代表、蘇寧控股集團董事長張近東也提出,數據安全是數字中國建設的重中之重,發展高品質的數字經濟,需要加強對數據的安全保護和合規共用。

從資訊安全形度看,當前人工智慧應用的安全風險點主要有哪些?

中國資訊通信研究院移動安全聯盟秘書長楊正軍説,人工智慧高度依賴海量數據的採集和訓練分析。隨著數據越來越多被收集,應用場景增加,用戶個人資訊洩露的風險也隨之提升。

“人工智慧演算法不僅能直接採集用戶個人資訊,也會深度挖掘分析看似不相關的數據。”楊正軍介紹,他們開展的一項調研顯示,當前濫用個人資訊現象較為普遍。同時,人工智慧及大數據場景下無所不在的數據收集、專業化多樣化的數據處理技術,使得資訊主體難以了解、控制其資訊是如何被收集和利用的。資訊安全保護已經成為人工智慧發展的重要課題。

專家表示,技術本身是中性的,只要利用得當,人工智慧也能用來提升網路安全水準。比如,人工智慧在識別惡意代碼方面就很有優勢。

北京神州綠盟科技有限公司安全研究員吳子建説,惡意代碼往往是基於一些開源代碼修改而成,它們通常有相似的行為模式。借助人工智慧技術訓練的檢測工具,能夠比較高效地發現惡意代碼。

人工智慧技術也普遍用於企業內網安全防護。吳子建介紹,傳統的防護手段是在網路的入口處設置防禦措施,但內網之間很少進行防禦。採用人工智慧等技術手段關聯數據,可以有效檢測內網中的異常。與傳統的方法相比,這種方法不僅能發現已知威脅,還可以檢測到未知風險。

吳子建認為,業內還需要做更多深入的研究,不斷提升人工智慧在安全防護上的價值。

  應提前研判智慧時代的法律倫理風險,引導人機良性合作

人工智慧的應用越來越多,衍生出一系列倫理、法律難題。比如,無人駕駛汽車發生交通事故時如何界定責任,醫療外科手術機器人出現意外怎樣處置……

“人工智慧的研究和應用要有倫理和法律界限,即應以人類的根本利益和責任為原則,以實現人類根本利益為終極目標。這一要求也是人工智慧和人的關係決定的。”中國人民大學法學院副教授郭銳認為。

“當前技術條件下,智慧機器尚未具備倫理決策的能力,但其決策會引發有倫理意義的後果。”郭銳認為,通常法律針對的是能夠遵循這些原則的主體,也就是自然人或者法律看作是主體的組織(法人),但考慮到人工智慧的特徵是對人的智慧的模擬、延伸和擴展,因此倫理原則應當適用於人工智慧系統。

北京師範大學哲學學院教授田海平認為,人工智慧的主體構成不是孤立的個體,而是多種關聯形態的總和。“人工智慧的構成主體分為研發者(包括演算法的開發者)、生産商、運營商、電信網路服務商等。一旦發生交通或醫療事故,由於無法找到某個確定的責任主體,給責任界定帶來很大困難,因此需要確立代理人來界定責任與權利。”

近年來,學界和産業界日益重視人工智慧中的倫理與法律問題,並推動制定相關技術標準及社會規範。專家表示,人工智慧倫理法律涉及科學界、企業界,哲學、法學等多個領域,有必要成立應對人工智慧發展的聯盟組織,吸納各方面的力量,共同推進相關研究。

郭銳建議,要考慮到人工智慧開發和部署過程中的權責歸屬,通過為技術開發者、産品生産者或者服務提供者、使用者界定權利和義務,讓自動駕駛、無人機等人工智慧應用安全落地。

專家表示,人工智慧大規模進入人們生活之前,還應建立相對統一的風險評估指標體系,設立具體、可操作的指標,為相關研究及應用提供指引。

專家特別提醒,人和機器各有優勢,要互相了解才能實現人機協作,但人還是人機關係的主導者。惟其如此,才能將人工智慧引向人機合作的良性發展道路。

  全球人工智慧法律治理面臨共同難題,當前應加強個人隱私安全管理

針對人工智慧應用在安全、倫理等領域的潛在威脅,世界各國已經開始了相關法律治理研究。

楊正軍介紹,各國對人工智慧風險的關注重點和重視程度有所不同。以安全為例,美國關注人工智慧對國家安全的影響,2018年3月美國國會發起提案,建議成立國家人工智慧安全委員會,並將制定相關法案;歐盟和英國關注人工智慧對隱私、就業及倫理的影響;俄羅斯、以色列、印度則重點關注人工智慧在國防領域的應用以及對軍事安全的影響。

北京師範大學刑科院暨法學院副教授、中國網際網路協會研究中心秘書長吳沈括表示,在規範人工智慧發展方面,我國起步較早。2017年7月,國務院頒布《新一代人工智慧發展規劃》;2017年12月,工信部發佈《促進新一代人工智慧産業發展三年行動計劃(2018—2020年)》,都對人工智慧産業的規範發展提出了要求。

“這些政策能夠引導和助推相關産業的發展。關於人工智慧技術標準,我國也發佈過一些文件。然而,當前立法中對於人工智慧帶來的安全問題還存在比較大的空白,這也是全球人工智慧的法律治理面臨的共同難題。”吳沈括説。

隨著人工智慧應用的深入,其附屬的相關風險也日益凸顯,加強對人工智慧相關的法律治理至關重要。人工智慧法律治理呈現出哪些趨勢,現實中又有哪些需要迫切注意的問題?

吳沈括認為,人工智慧立法治理上可能會呈現出三個趨勢:一是立法將更加細化,更有針對性。比如,針對自動駕駛、機器人、生物識別等領域頒布一些規範性文件,立法監管也會更加多元;二是立法將與産業特性緊密結合;三是立法將以規範為主,監管則重在為産業發展提供指引。

“由於法律往往存在一定的滯後性,考慮到人工智慧等新技術應用前景廣闊,立法需要預留一定的空間,儘量實現産業應用與風險前瞻的恰當平衡。在確定監管什麼內容、如何監管以及怎樣執行時,要把握好力度,不宜影響産業的發展活力。”吳沈括説。

楊正軍説,從行業調研情況來看,當前應該加強個人隱私安全管理。他建議,隱私保護應從立法監管和技術能力提升兩方面入手:一方面,針對我國個人資訊保護法律條款分散、不成體系的現狀,加快統一立法,明確數據不當收集、使用、洩露等的責任,同時也要界定好數據歸屬權等問題;另一方面,應加強新技術在個人隱私保護方面的應用。

數據的合理合法收集是數據利用的前提。專家表示,我們不應回避智慧化與隱私安全保護的衝突,而應積極作為,找到智慧時代技術應用與風險防護的最大公約數,為智慧生活保駕護航。

 

來源:人民網  責任編輯:姬雯

(原標題:“智慧+”更應重視安全挑戰)