首頁 > 科技向善

人工智慧該怎樣踐行“科技向善”

發佈時間:2021-12-29 17:33:05 | 來源:央廣網 | 作者: | 責任編輯:

央廣網北京12月5日消息(記者馮爍)據中央廣播電視總台中國之聲《新聞縱橫》報道,隨著智慧城市、智慧設備越來越多地進入到人們的生活中,人工智慧在賦能千行百業的同時,也帶來了安全、隱私、公平等問題和挑戰。諸如個人資訊洩露問題,低俗劣質資訊精準推送、“大數據殺熟”等演算法歧視亂象凸顯出來。

近期,各國監管機構也加大了對演算法不公平的打擊力度。人工智慧帶來了哪些新煩惱?面對這些煩惱人們真的束手無策嗎?

現如今人工智慧已經成為一股無可抵擋的潮流,甚至遍佈于各個行業之中。然而當人工智慧越來越懂人類時,我們不禁要擔心:這些人工智慧會不會哪一天就把我們給“賣了”?

以近些年很多小區安裝的人臉識別門禁為例,不少業主都表示擔心被採集的人臉資訊洩露。

各類人臉識別系統、手機App等都在廣泛採集用戶人臉、聲紋等具有強個人屬性的生物特徵資訊及行為軌跡等數據,一旦洩露將威脅個人隱私。

數據安全是數字經濟發展中最關鍵的安全挑戰之一,近些年國際社會上發生的數據洩露事件也並不少。今年8月,微軟伺服器上約3800萬條記錄(包括私人資訊)被暴露。此次的數據洩露包括用戶的姓名、地址、財務資訊和新冠肺炎疫苗接種狀態等,人員涉及美國航空公司、福特公司以及馬利蘭州衛生部和紐約市公共交通系統等公共機構。

從我國法律層面上看,今年11月,個人資訊保護法正式實施,針對人臉識別等行為作出了明確規定。至此,連同已經實施的數據安全法、網路安全法,三者共同構成了我國在網路安全和數據保護方面的法律“三駕馬車”。

國家新一代人工智慧治理專業委員會主任薛瀾表示,新一代人工智慧以數據為基礎,所以首要挑戰就是怎麼樣能夠有高品質的數據集建設並對數據進行有效管理。

在購物網站上填個調查問卷,甚至連問卷都沒填,僅是瀏覽資訊,就幾乎看不到一些選項範圍之外的商品廣告資訊了;通過應用程式(App)閱讀了一條養生資訊,隨後便會經常收到養生知識、養生産品的廣告推送……這都是“演算法歧視”,很多人有切身感受。

當前,人工智慧技術的發展正處在關鍵十字路口。12月4日,2021人工智慧合作與治理國際論壇在京開幕,大咖雲集。他們如何看待這個問題?人工智慧又應該怎樣去踐行“科技向善”呢?

今年年初,中國消費者協會就消費領域不合理的演算法現象發聲,揭露出“大數據殺熟”的六種現象,其中就包括大家非常熟悉的“精準推送”——這是指網際網路平臺通過監測分析消費者的消費行蹤軌跡,如瀏覽過的頁面、廣告、商品服務、話題等,有針對性地對消費者進行商業行銷。

一位來自南京的消費者告訴記者:“比如,我5分鐘之前跟朋友聊到電動牙刷,5分鐘後我打開某些電商平臺,它就會給我推送這種商品,而這種商品是我之前沒有搜索過的。”

的確,隨著人工智慧技術的發展,更精準地讀懂大家想要什麼在一些場合下變得非常方便,但是一旦這種對資訊的收集越了界,將給大家帶來無盡的困擾。

目前我國已經陸續出臺了一系列政策,為“大數據殺熟”戴上緊箍咒。11月18日,上海率先在電子商務領域出臺地方性指引,制定發佈《上海市網路交易平臺網路行銷活動演算法應用指引(試行)》,明確平臺經營者不得利用演算法實施不正當價格行為,不得利用演算法對消費者實施不合理的差別待遇。

今年8月,國家網信辦已經出臺了《網際網路資訊服務演算法推薦管理規定(徵求意見稿)》,要求演算法推薦服務提供者應當定期審核、評估、驗證演算法機制機理、模型、數據和應用結果等,不得設置誘導用戶沉迷或者高額消費等違背公序良俗的演算法模型。

不少專家都表示,發展人工智慧,必須堅持技術永遠服務人的原則,而不是利用技術來窺探人、傷害人。

對此,清華大學智慧社會治理研究院院長蘇竣指出:“演算法以前所未有的速度和無與倫比的精度處理數據,讓佔據了用戶數據和高級演算法優勢的個體或組織,因此獲取了極大的權力,形成壟斷性的超級平臺,對市場活動中的勞動者權益和消費者的福利造成了無邊界的蠶食。當今社會,每個人其實都被困在各式各樣的演算法裏。”

眾所週知,人工智慧是在特定模型下自我學習形成演算法的,訓練模型所依據的數據集和模型本身的設計都有可能帶來偏差。而這就會帶來歧視問題。

美國卡內基梅隆大學學者就曾經用釣魚軟體模擬普通用戶瀏覽求職網站的實驗,然後統計谷歌推送“年薪20萬美元以上的職位”的廣告數據,結果男性收到1852次推送,女性收到318次。結果很明顯,平臺可以通過後臺進行關鍵詞設置,可以“操作”每類人群收到的資訊頻率。

一位來自美國的黑人女士喬伊也曾公開表示,在實習中她遭遇了這樣一種情況——由於自己是黑人臉龐,所以人臉識別攝像頭無法識別她的面容。

對此,清華大學人工智慧國際治理研究院學術委員龔克表示,人工智慧很可能會導致廣泛的歧視和不公問題,這種演算法偏見亟待糾偏。

“我們現在使用人工智慧的時候,是靠數據來訓練模型,而我們從社會中採集的數據帶有了現實社會的很多偏見。如果我們沒有適當的技術對我們的演算法進行偏見的檢測、去除,公平無歧視的原則就會變得沒有辦法落地。”龔克説。