分享縮略圖

分享到:
連結已複製
首頁> 中國式現代化之路>

形成監管、平臺、用戶聯動共治 多管齊下防範AI技術濫用

2025-11-28 10:54

來源:人民日報

分享到:
連結已複製
字體:

形成監管、平臺、用戶聯動共治

多管齊下,防範AI技術濫用(民生一線)

人工智慧(AI)、深度合成等新技術快速發展,對加快形成新質生産力、實現經濟社會高品質發展起到關鍵作用,也為人們的生活帶來便利。然而,部分不法分子利用AI技術傳播虛假資訊,破壞網路生態,造成不良影響。

多管齊下防範對AI技術的濫用,促進人工智慧健康發展,有利於維護社會共同利益。《人工智慧生成合成內容標識辦法》通過標識提醒用戶辨別虛假資訊,明確相關服務主體的標識責任義務,規範製作、傳播各環節標識行為。

持續打擊灰色産業鏈

一天,林某躺在床上刷著短視頻,一個名為“AI理財小助手”的賬號出現在螢幕上。林某在其主頁裏瀏覽了一番,發現賬號粉絲數顯示“8.7萬”,但最新視頻的點讚數還不到三位數。

“公式化命名、同質化內容、異常互動數據,這些是AI起號的特徵。”某短視頻平臺內容安全部門負責人劉珊介紹。AI起號成為一些自媒體的牟利手段,利用AI生成發佈吸引眼球的內容,在短時間內吸引大量粉絲,之後通過帶貨或者直接轉讓賬號變現。

“利用AI選擇漲粉領域,打造能夠吸粉的人設,賬號內容也可以通過AI生成。”售賣“AI起號課程”的“培訓師”楊某説。一方面不受做自媒體需要的專業知識、製作能力限制;另一方面,可以幫助精準吸粉,並保持“人設一致”。此外,還能同時操作多個賬號,形成矩陣,互相引流,合作推廣。

“情緒急救:人生低谷期如何防止情緒崩盤”“深度療愈:看見潛意識中的自己”……楊某向記者展示了一個剛開號不久的“心理學博主”的賬號頁面。每個標題看上去專業感十足,又直擊特定群體心理需求。“其實文案全靠AI生成。”楊某説。

虛假的人設、不嚴謹的內容、誇張的畫面,如此起號,對網路空間環境危害不小。

如何打擊利用AI起號的行為?

“AI起號的主要危害在於偽造,治理關鍵也在於此。”北京郵電大學網際網路治理與法律研究中心執行主任謝永江認為,除了強化執法打擊外,平臺也應提高對深度偽造內容的檢測精度,明確對AI造假起號等違規行為的界定和處罰標準等。

“起號—轉型—轉賣”的灰色産業鏈,是AI起號相較其他AI偽造現象的獨有特點。

“根據反電信網路詐騙法規定,任何單位和個人不得非法買賣、出租、出借網際網路賬號。”某電商平臺安全運營負責人表示,各個電商平臺均已禁止賬號轉賣。但有一些賬號交易還是通過社交媒體發佈,借助“隱晦暗語”等私下進行。

“賣號不僅是AI起號的變現途徑,通常還伴隨詐騙等違法犯罪行為。”北京師範大學法學院教授梁迎修建議,監管部門督促平臺履行治理責任,建立違規賬號“黑名單”,對高頻、反覆觸犯平臺規則的賬號主體加大處罰力度,禁止違規賬號進行帶貨、賣課等商業活動,持續開展AI造假起號整治,切斷不法分子獲利渠道。

有效攔截倣冒行銷內容

“今天有事請大家幫忙……先拿出300單老家的土雞蛋給大家發福利!”不久前,在某短視頻平臺上,一名廣受喜愛的運動員“推銷老家農産品”,彈幕和評論裏全是“支援”“為偶像沖銷量”的文字。其實,這些帶貨視頻全都是利用AI倣冒的,其中一個商品連結顯示已售出4.7萬件。

據某短視頻平臺負責人介紹,冒充社會知名人士的情況主要有幾種:利用AI技術生成社會知名人士圖片,用作賬號頭像,倣冒假冒他人;利用AI技術生成社會知名人士視頻且不做標注;倣冒假冒社會名人賬號和生成內容後,博取關注,通過開設櫥窗售貨等方式不當獲利。

如何治理這一亂象?

“AI倣冒名人,歸根到底還是利用AI造假。民法典對肖像權和聲音權利的規定以及其他相關法規,都已作出相關保護。《人工智慧生成合成內容標識辦法》對人工智慧生成合成內容標識提出要求。”梁迎修認為,關鍵還是要嚴格執法,公正司法。

“從平臺角度來説,除了壓實自身責任,還要與用戶聯動,強化共治。”騰訊相關負責人表示,用戶發現未標注AI生成標識的短視頻時,可提交相關材料進行投訴。經平臺審核通過的補充説明將以浮動標注形式展現在原視頻頁面。

抖音相關負責人表示,平臺已為社會知名人士建立肖像保護庫,同時努力對倣冒行銷內容進行有效攔截。

多方協作建立辟謠機制

“突發爆炸!火光沖天!傷亡不明!”一則“視頻新聞”在網上流傳,畫面中火光沖天,引發當地群眾恐慌。後來公安機關調查發現,這是賬號所屬機構使用AI批量生成的虛假新聞。該機構一天最多能生成4000至7000篇假新聞,每天收入在1萬元以上。

為何AI製作的虛假新聞在網路上屢禁不止?

某新聞聚合平臺內容安全負責人認為,一些平臺的反虛假資訊機制效率有待提升,某些賬戶在平臺發佈AI生成圖片視頻後,“疑似AI技術生成”的提示語數小時後才出現,未能及時提醒風險。

中南大學法學院副院長楊清望認為,平臺應根據權威資訊立即對相關謠言採取清理、標簽標記等措施,並處置違規賬號。

近年來,相關法律法規不斷健全完善,向AI使用者和平臺管理者亮明瞭法律底線。北京師範大學新聞傳播學院教授許小可建議,針對生成和傳播虛假資訊的高風險領域,可以通過司法解釋等形式明確各方義務邊界,進一步制定科學合理的AI侵權責任認定指導標準。

在以技術對抗虛假新聞方面,各地監管部門也在不斷探索。“我們與科研機構、企業密切合作,進一步提高對惡意‘深度偽造’資訊的監測預警和快速識別能力。通過與相關部門合作建立網路謠言巡查監測、核查反饋、會商研判、線索移送、打擊處置的閉環機制,對AI合成的虛假資訊第一時間依法依規處理。”遼寧瀋陽市公安網路安全保衛部門負責人説。

若因虛假消息遭受損失,責任誰來承擔?浙江師範大學特聘教授喬巴生認為,內容製作方若涉嫌欺詐,應承擔侵權責任;若平臺未盡審核義務,需依法承擔連帶賠償責任。此外,用戶也應提升對虛假資訊的鑒別能力。

某短視頻平臺負責人建議,首先,警惕內容特徵,如AI生成文本常出現邏輯斷層、情感表達單一或事實細節模糊;視頻可能存在面部表情不自然、光影異常或聲音失真。其次,核查資訊來源,優先選擇權威媒體或官方渠道。騰訊相關負責人建議,在一些AI生成內容明顯缺乏可信度、具有資訊誤導等特徵時,用戶可通過評論區互動等形式相互提醒,並通過投訴等形式及時反饋到平臺。

監管、平臺與用戶聯動共治,通過技術檢測、投訴機制和法律追責,共同築牢誠信防線。(人民日報 記者 金歆)

【編輯:李岩】

【責任編輯:吳聞達】
返回頂部