最新原創 專題 新經濟 曝光臺 中國訪談 中國三分鐘 沖浪特殊資産 潮評社 溫州 紹興 衢州 淳安 岱山 桐廬 文娛 元宇宙
您的位置:首頁 > 要聞 新聞詳情
浙江首例利用ChatGPT製作假視頻案,嫌犯竟是她
發佈時間 | 2023-07-08 10:28:26    

   7月6日,被視為全球AI行業風向標的世界人工智慧大會在上海開幕,從大模型、晶片到機器人,大會集中展示了當前人工智慧技術在各領域的賦能“進度表”。

  人工智慧引領新一輪科技革命和産業變革是它的“A面”,讓人讚嘆、驚喜,但它的“B面”卻正在引發一場看不見的安全攻防戰。

  7月4日,紹興警方公佈摧毀了一個利用ChatGPT製作虛假視頻的團夥,該案係浙江全省首例。讓人驚異的是,當事人落網之時,並非人們想像中的駭客高手,而是一個連電腦都不能熟練操作的技術“小白”,這樣的結果更加讓人對人工智慧的“B面”感到擔憂。

  “要使科學造福於人類,而不應成為禍害。”90多年前,愛因斯坦對加利福尼亞理工學院學生所説的話揭示了科技的“雙刃劍”效應。人工智慧“B面”究竟長什麼模樣,“造物者”如何對抗自己創造的“敵人”?

  1分鐘製作虛假視頻

  直到被捕,正在家帶孩子的湯某都不知道自己為何違法。

  今年6月,一則“上虞工業園區發生火災”的視頻在某平臺發佈,短時間內視頻瀏覽量迅速攀升,給當地造成不小的影響。然而,上虞警方經過核實,發現視頻內容完全為虛假資訊。這引起警方的注意,在鎖定外省某網路科技公司有較大作案嫌疑後,警方立刻赴外省實施抓捕,抓獲包括湯某在內的3名犯罪嫌疑人。

  湯某今年36歲,初中文化。今年兩三月份,她入職了親戚創辦的網路科技公司。剛開始,她每天的工作就是用手頭幾十個賬號發發短視頻,如果視頻點擊流量數據可觀,就能拿到相應的提成。對一個家庭主婦來説,這是一份性價比很高的工作。

  入職一段時間後,公司的小組長向她傳授用AI技術自製視頻的方法,短短幾天,連電腦都用不太明白的湯某就成了視頻製作的“熟練工”——利用ChatGPT技術,自動生成“腳本”和相關視頻素材,最後一鍵生成有音樂、字幕的虛假視頻,時間最快只需要1分鐘。

  經過調查,上虞警方發現犯罪嫌疑人張某和陳某合夥創辦的這家網路科技公司,已非法購買視頻賬號1500余個,發佈未經核實視頻3000個以上,獲取流量後通過流量演算法返款盈利。目前,三每人平均以尋釁滋事罪被警方採取刑事強制措施,案件正在進一步偵辦中。

  濫用人工智慧技術,不僅降低了違法犯罪行為的“門檻”和成本,讓複雜的“技術活”變成簡單的“體力活”,同時衍生出全新形態的違法犯罪,加大了公安機關的打擊難度。這是不少我省參與一線辦案民警的深切感受。

  2017年,紹興警方歷經半年,輾轉13省,偵破全國首例利用AI(人工智慧)犯罪、侵犯公民個人資訊案。犯罪團夥利用人工智慧深度學習技術,讓機器自主操作並識別圖片、字母、數字等驗證碼,輕鬆繞過網際網路公司設置的賬戶登錄安全防護,給網路詐騙等網路犯罪提供便利。

  今年3月,廣東廣州一女子在地鐵上的照片被人以AI技術“一鍵脫衣”,造謠圖在網路廣泛傳播,給當事人造成巨大困擾。今年5月,內蒙古包頭警方發佈一起利用人工智慧實施電信詐騙的典型案例,受害者被“AI換臉”誤導,10分鐘內被騙430萬元。

  除了製作虛假視頻、電信詐騙等已“浮現”的犯罪形態外,2020年,英國倫敦大學學院發佈的一份報告,還列舉了未來15年人工智慧可能被用於犯罪的不同方式,如非法控制自動駕駛汽車、破壞資訊系統、AI輔助跟蹤、自主攻擊無人機、以及大規模網路勒索等。

  人工智慧似乎正呈現出可怕的“B”面。

  “魔法”可以打敗“魔法”嗎?

  “人工智慧該不該按下‘暫停鍵’?”隨著AI的安全風險越來越被重視,今年以來,一場激烈的辯論在世界“科技圈”內持續進行。

  今年3月底,非營利組織“未來生命研究所”發出一封“呼籲所有AI實驗室立即暫停對比GPT-4更強大的AI系統訓練至少6個月”的公開信,包括埃隆·馬斯克,圖靈獎得主傑弗裏·辛頓等一眾科技界“大佬”均在聯合署名者名單中。公開信還寫道:“只有在我們確信它們有積極效果且風險可控時,才應研發強大的人工智慧系統。”

  人工智慧為何不被人所信任?

  在紹興這起案件偵破後,潮新聞記者在ChatGPT上提了一個問題:如果有人利用你實施犯罪,你會怎麼辦?

  ChatGPT的回答是,首先我要聲明,作為一個語言模型,我沒有實際存在的身體或能力參與犯罪行為,我只是一個通過文本進行交流的人工智慧程式。因此,建議你與執法機構聯繫、彙報給技術公司或者尋求法律援助。

  ChatGPT很“聰明”地撇清了自己的責任,只是在文末善意提醒:“記住,合法和道德使用技術是每個人的責任”。

  透過和ChatGPT這番對話,我們看到目前的人工智慧應用似乎仍有局限性,“AI”認為它只是扮演一個“執行者”的角色,其自身難以識別出使用者的真正意圖。這是否意味著,在技術基層面難以規避利用人工智慧技術産生的犯罪,“魔法”難以打敗“魔法”?

  浙江大學求是講席教授、網路空間安全學院院長任奎給出的答案是否定的。他告訴潮新聞記者,以ChatGPT為代表的生成式人工智慧為例(指基於演算法、模型、規則生成文本、圖片、聲音、視頻、代碼等內容的技術),在模型使用階段的“前端”,即應對輸入ChatGPT的語義資訊進行提取審查,確保其不會誘導模型生成有害內容。在“終端”上可以利用深度合成檢測技術,分析圖像、視頻等內容的特徵,從而判斷其是否經過合成或修改,及時發現生成內容中的虛假成分。

  任奎教授的觀點也得到了上海交通大學寧波人工智慧研究院人工智慧智慧教研中心主任、可之科技董事長王冠的認可。例如“數字浮水印”技術也是一種防止AI被濫用的防範措施。即通過在圖片、視頻等數字內容中嵌入特定資訊,當AI“抓取”這些內容時,“數字浮水印”也同步被採集,這樣就可以輕鬆追蹤和驗證內容的真實性和來源。就好像農産品上的溯源碼一樣,用戶通過掃碼就知道它的生産、流通等資訊,判斷接收到的産品是否真實可靠。

  事實上,以“白AI”限制“黑AI”的反制技術,已在一些應該場景上得以實現。如針對AI換臉,目前,清華大學孵化團隊瑞萊智慧RealAI、騰訊優圖實驗室等企業機構已構建人臉合成檢測平臺併發布針對性的檢測産品,支援對多種換臉方法進行檢測。

  中國科學院院士、清華大學人工智慧研究院院長、北京瑞萊智慧科技有限公司首席科學家張鈸曾提出了“第三代人工智慧”的概念,即安全、可靠、可信的人工智慧。這一觀點已逐步成為人工智慧行業從業者的共識,佈局人工智慧安全的産品和解決方案也在成為一片行業的新藍海。

  “國家隊”正在出手

  防止人工智慧技術被濫用,僅僅依靠行業自律遠不夠,中國網際網路協會監管支撐部主任郝智超建議,AI技術發展還要有相關法律法規來畫紅線、踩剎車,讓AI技術的研發、傳播、使用有規可循。

  從全球來看,今年以來, AI立法進程明顯提速,世界各國的監管都在追趕AI的演化速度。

  今年6月,歐洲議會以499票贊成、28票反對和93票棄權,高票通過了《人工智慧法案》(AI Act)談判授權草案。歐洲議會稱“已經為制定史上首部人工智慧法案做好談判準備”。

  與此同時,美國總統拜登釋放管控AI信號,有美國國會議員提交了AI監管立法提案。美國參議院民主黨領袖查克·舒默展示了他的“人工智慧安全創新框架”,並計劃在短短“幾個月”內制定聯邦層面的人工智慧法案。

  我國同樣已經開始探索並逐步構建完善的人工智慧監管體系。此前,已有《新一代人工智慧發展規劃》《網際網路資訊服務深度合成管理規定》等文件正式公佈。2023年4月份,國家網信辦起草《生成式人工智慧服務管理辦法(徵求意見稿)》並向社會公開徵求意見,提出AI內容必須真實準確,禁止非法獲取、披露、利用個人資訊和隱私、商業秘密。

  近期,國務院辦公廳發佈的《國務院2023年度立法工作計劃》還將人工智慧法草案列為預備提請全國人大常委會審議項目,表明相關立法已提上日程。

  在立法規範中,如何保護人工智慧技術的健康發展,也是業界普遍關心的問題。

  長期關注人工智慧技術發展的浙江合創律師事務所合夥人丁傑認為,在相關法律法規制定中,應充分考慮人工智慧技術具有的“兩面性”,不能“因噎廢食”,要鼓勵科研人員和科技企業開展技術創新,搶佔産業先機。他表示,從現有的以及計劃中的監管體系來看,主要在於抑制AI技術帶來的負面效應,並不會限制技術發展。

  在接受媒體採訪時,西南政法大學人工智慧法學院教授朱福勇表示,通常在人工智慧技術發展初期,不宜採取過於嚴苛的監管措施,當技術成熟、市場需求增長、風險和問題日益突出的時候,則應加大監管強度。當前情勢下,堅守價值引領與技術“糾錯”並行、秩序保障與創新提升協同、權益維護與義務承擔對稱,是最恰當的平衡之道。

來源:潮新聞    | 撰稿:李攀 應磊 幹婧    | 責編:俞舒珺    審核:張淵

新聞投稿:184042016@qq.com    新聞熱線:135 8189 2583