您的位置: 技術市場>人工智慧>

為人工智慧注入更多安全基因

發佈時間:2019-09-16 16:04:43  |  來源:人民網  |  作者:付千也  |  責任編輯:蘇菁

大數據殺熟、技術黑箱、演算法偏見等專業名詞,正在隨著人工智慧的普及引來人們的關注。隨著人工智慧技術的快速發展和廣泛應用,技術倫理問題開始從幕後走到臺前,成為人工智慧研究發展的重要議題。

這段時間,一款AI換臉軟體持續刷屏。該軟體通過獲取人臉資訊,利用人工智慧的深度學習技術,將影視劇、綜藝節目片段中明星臉換成用戶的。然而,在滿足了用戶短暫的娛樂心理後,軟體中所設置的灰色條款引發了用戶對於自身肖像權和資訊安全的擔憂。同時,軟體的換臉行為是否對影視劇、綜藝節目構成智慧財産權侵權仍有待商榷。這場討論,進一步促進人們對人工智慧技術未來的反思。

放眼當下,借助人工智慧,企業賦予每個用戶的偏好和行為以大量數據標簽,摸透用戶甚至超過用戶對自己的了解;在社交媒體中,人工智慧將觀點相近的內容反覆推薦給用戶,逐步加劇偏見強化;通過對海量數據的挖掘,不同的消費者購買同一件商品的價格不同,有被“殺熟”之嫌……人工智慧技術的商業化,帶來了技術濫用、資訊安全等問題。可以説,隨著人工智慧技術的飛躍,“智慧大爆發”帶來的工具倫理性問題一直未被解決,進而造成個人隱私洩露、法律倫理困境。如何確保安全、合理地使用人工智慧,亟待整個社會求解。

日前發佈的《人工智慧安全與法治導則(2019)》,從演算法安全、數據安全、智慧財産權、社會就業和法律責任等五大方面,對人工智慧發展的風險提出安全與法治應對策略。這是人工智慧行業對於社會訴求的一種積極回應,也是行業對於自身技術發展安全性的一次深刻思考。也許,技術的不斷革新可以破解現存的“技術黑箱”,但人工智慧的發展必須始終堅持的是,把安全性作為其技術發展的考量標準,把握商業價值和人文價值的統一,把握市場倫理和技術倫理的統一。

實現技術可用、可靠、可知、可控,首先要在人工智慧的商業考量中注入更多的人文關懷。必須明確的是,利用技術的主體和收益方應是人本身。發揮技術優勢去彌補行業短板,理應明確人的主體地位,讓人工智慧在商業價值與人文價值中求得平衡。同時,更要讓人工智慧處在一個公平、安全的市場倫理下發展。技術應當存在倫理邊界,技術發展和市場倫理的底線就是公平和安全。一方面,新的産品和技術應當經過嚴格的測試和驗證,確保其性能達到合理預期;另一方面新技術的發展應確保數字網路、人身財産以及社會發展的安全。

智慧時代的大幕正在拉開,“人工智慧+教育”“人工智慧+醫療”“人工智慧+媒體”……不斷打破著各個行業的發展瓶頸,重塑著不同産業的生産模式,更是給人類社會的發展拓展了更多的智慧空間。為人工智慧注入更多的人文與安全基因,才能推動人工智慧向安全、可靠、可控的方向發展。


 
分享到:
0