不能任由AI技術應用“玩過界”
在網際網路上,奧運冠軍的“聲音”突然開始推銷農産品,知名演員的“聲音”24小時不間斷在直播間與粉絲互動……聲音是人們在社會交往中傳遞資訊、表達情感的重要象徵符號之一,當下正面臨著從“一聽就假”到“真假難辨”的嚴峻挑戰,AI技術發展已進入了“深度偽造”的時代。
詐騙分子利用克隆的親人聲音實施電信詐騙,商業機構盜用明星聲音進行虛假代言……這些亂象折射出一個核心問題:當聲音的可信度被技術徹底解構,人際交往中最基礎的認知方式正在失效。“當親耳聽到未必為真”,我們在享受著科技便捷的同時,亟待完善立法、強化技術監管、壓實平臺責任與社會監督等舉措,構建綜合治理體系推動AI技術發展回歸“以人為本、智慧向善”。
完善法律法規,明確AI技術應用紅線。生成式AI技術的迅猛發展,使得虛假視頻、音頻、圖文等內容極易生成,其濫用風險也日益凸顯。為了追逐利益,一些不法分子不惜突破道德底線和法治紅線。規範AI技術應用,需要建立健全相關法律法規,明確界定AI技術的使用範圍、應用條件和禁止領域。通過清晰的法律規則為AI技術使用劃定紅線,將資本與創新的活力引導至那些真正能夠解決人類共同挑戰、增進人類尊嚴與福祉的方向。
強化技術監管,確保AI技術發展方向。隨著AI技術深度融入生産生活,未經過授權和未進行標注的AI技術産品很容易引發公眾誤解,造成惡劣社會影響。治理AI技術“玩過界”,必須通過強化技術監管,為其鋪設“善治”的法治軌道。要健全AI技術生成內容審核機制,提升技術檢測能力,讓人民群眾真正享受到人工智慧的發展紅利。AI技術提供方也不能“置身事外”,需要完善運營規則,強化對源頭素材的把控和對生成內容的全過程監管。
壓實平臺責任,凝聚社會監督合力。防範AI技術濫用風險,作為內容傳播的服務提供者,短視頻等傳播平臺必須切實履行主體責任。要建立AI技術生成內容的甄別和追蹤的機制,強化主動監管意識,及時發現、處理可能涉及侵權的違規內容。相關部門應繼續強化AI技術源頭治理,嚴厲打擊利用AI技術進行詐騙等違法犯罪行為。同時,要加強人工智慧相關政策的宣傳推廣和人工智慧素養的科普教育,引導社會各界正確認識和應用人工智慧技術,不斷凝聚治理共識。
凡事有度,過猶不及。歷史上每一次技術革命的核心價值,都在於拓展人類能力的邊界、提升整體福祉,而非成為灰色産業鏈謀利的工具。AI技術作為賦能工具,其應用必須有邊界、有約束、有方向,絕不能無邊界濫用。(尹永全、玉溪市紅塔區融媒體中心供稿)







