最新原創 專題 新經濟 曝光臺 中國訪談 中國三分鐘 沖浪特殊資産 潮評社 溫州 紹興 衢州 淳安 岱山 桐廬 文娛 元宇宙
您的位置:首頁 > 潮評社 > 評“浙”70年 新聞詳情
浙江宣傳 | “狂飆”過後大模型該走向何方
發佈時間 | 2024-03-27 09:10:57    

  自從一年前ChatGPT突然爆火,到不久前文生視頻大模型Sora以霸屏之勢吸引全球輿論關注,與AI大模型相關的議題越來越多地被大眾所討論。為了搶抓機遇,國內不少科技企業爭相上線生成式AI。

  有報告顯示,截至2023年10月,國內公開的AI大模型數量已經達到238個,僅次於美國。過去5年世界上參數量超過百億的大模型大約有45個,其中9個出現在中國。

  狂熱之下不乏擔憂,“狂飆突進”的大模型還面臨哪些突出問題?有何危害?未來將走向何方?

  一

  我國大模型發展勢頭正猛,很多科技企業有敏銳性,敢於探索和創新,值得肯定。但在一路“狂飆”過後,不難發現其在“野蠻生長”過程中産生的一些亂象。

  一味盲目跟風。可以説,品質和數量的矛盾始終伴隨著大模型的“井噴式”發展。一些企業一味追逐熱點,“能不能用不重要,但首先要擁有”“人工智慧時代,沒有大模型的科技企業就意味著落伍”,在不具備強大的研發和投資能力的情況下,盲目開發低品質産品,沒多久便被用戶棄用,落入“曇花一現”的尷尬境地。

  研發涉嫌模倣。仍有一些大模型因涉嫌“微調國外底座模型”而備受輿論爭議。在這個快速發展但充滿不確定性的領域裏,一些企業更願意選擇“站在巨人肩膀上”,以降低失敗風險。去年,一家公司創辦的大模型就曾陷入“套殼”風波。儘管該公司堅決否認抄襲,卻承認其使用Meta發佈的開源大模型LLaMA架構的事實,稱只是在此基礎上進行研發。

  應用效果欠佳。大模型同質化、缺乏多樣性成為飽受詬病的問題。不少大模型採用同樣的數據集、訓練方法等,輸出雷同的問題答案。此外,高品質語料短缺也嚴重制約著大模型的發展。AI寫作、AI設計、AI社交等應用被吹上了天,人工智慧看似“無所不能”,然而面對“是誰提出了新三民主義”“最近5年中國的GDP數據是多少”等具體問題時,不少大模型表現欠佳。

  二

  有觀點認為,任何一項新技術都會經歷被質疑被挑戰後的冷靜思考期,並通過相對較長時間的迭代,才能實現從技術到産品的跨越,大模型也不例外。當前出現的一些亂象和質疑背後,實則有著多方面原因。

  一方面,美國不斷升級科技制裁,一波操作下來,給國內大模型研發帶來的“卡脖子”風險是顯而易見的;另一方面,中國在大模型領域起步比美國晚,一些大模型企業生怕錯過“風口”,存在投機取巧、走捷徑等心理,不願在基礎研究和技術創新方面狠下功夫。加之大模型需要不斷投喂語料、反覆訓練,而網際網路上可供爬取的高品質中文語料有限,因而産品的用戶體驗等方面難免不盡如人意。

  儘管我們難以判斷“大模型熱”將持續多久,但如果不能穿透輿論迷霧,理性看待這股大模型熱潮,就難免被捲入潛在風險之中。

  缺乏原始創新被“牽鼻子”。有報道稱,目前國內外很多大模型訓練時都是採用谷歌的Transformer模型,這就好比“在別人的地基上蓋房子”。缺乏原創性理論突破和核心技術創新,是我國大模型發展面臨的主要瓶頸。上世紀60年代,我國實現原子彈到氫彈的突破,關鍵就在於“鄧-于理論方案”的提出和發現,倘若照抄美國的“泰勒方案”,或是蘇聯的“薩哈羅夫方案”,奇跡便不會發生。

  過度“內卷”造成資源浪費。大模型猶如一隻“吞金巨獸”,需要耗費高昂的訓練成本,盲目跟風“內卷”勢必導致重復投資、資源浪費。近日,有關部門負責人介紹,中國10億參數規模以上的大模型數量已超100個。通常參數越多意味著模型能力越強,但一定程度上也意味著在訓練過程中需要龐大的計算能力來處理這些參數的更新,這就導致對晶片等硬體的過度需求。

  大模型濫用帶來安全風險。訓練數據進入模型後,其內部處理過程類似“黑盒”,用戶並不清楚自己輸入的數據如何被使用。各類企業一哄而上研發大模型,違規收集數據的風險加大。去年,某款基於生成式人工智慧的攝影軟體就因存在濫用用戶資訊的嫌疑引發用戶強烈抗議。此外,一些大模型的訓練語料庫品質不高,包含大量虛假、色情、暴力等有害資訊。

  三

  大模型作為人工智慧發展的重要方向之一,擁有廣闊的應用前景和發展前景。其發展是一場比拼耐力、實力的馬拉松,跟在別人後面“邯鄲學步”難有出路。針對當前國內大模型領域存在的各種問題,我們需要加以重視並積極解決,變“追隨”為“領跑”,實現自主、開放、可控。筆者認為,可以從四個方面進行提升。

  自主創新才能免於受制於人。不少學者提出,中國必須要研究開發自己的“底座”基礎大模型,這就非得加大投入、走自主創新的道路不可。面對“牽鼻子”“卡脖子”等難題,既應保持科技戰略上的清醒,也該注重戰術上的創新探索,走自己的路,擺脫對西方資訊技術的“路徑依賴”“方法依賴”“工具依賴”。比如,政策上突出鼓勵基礎研究和原始創新導向,持續加大技術研發投入,強化生態鏈建設;設立專項基金,專門用於大模型的研發和訓練;構建中國自主知識體系,“用我家筆墨,寫我家山水”,在人才培養方面更加強調原創精神、創新意識,在人才評價方面更加強調解決實際問題等。

  Sora的橫空出世也預示著,未來大模型需要處理更加多樣的數據和更加複雜的應用場景,國産大模型只有探索自己的科研創新道路才能擺脫追隨式的路徑依賴。當然,在這個過程中,不是説要單打獨鬥、閉門造車。組織科技巨頭企業建立聯盟,集中全國頂尖人才和優質資源進行攻堅,都有助於形成合力。

  垂直大模型或成“更優解”。有人將通用大模型和專用大模型比喻為“通才”和“專才”,前者用一個模型解決人類面臨的各方面問題,而後者用於解決特定領域的問題。不難發現,很多大模型在面對寫詩等不存在唯一正確答案的問題時,常常表現完美,但在面對一些具體問題時,卻錯誤百齣。

  對此,一方面,提高語料品質至關重要,使用專用數據庫對模型進行專業訓練,有望解決一些模型“一本正經地胡説八道”的問題。另一方面,垂直化或成未來大模型發展的必然趨勢。與其擠在同一個賽道“重復造輪子”,不如另辟蹊徑,讓AI真正應用到各行各業,更加精準地匹配産業鏈中的供給與需求,像比如醫療、交通、教育、金融等特定領域的專業模型可能帶來更多發展機遇。

  應對安全風險需戴“緊箍咒”。實施強有力的合規監管必不可少。去年以來,《生成式人工智慧服務管理暫行辦法》等正式施行,配套支撐的《生成式人工智慧服務安全基本要求》《資訊安全技術生成式人工智慧預訓練和優化訓練數據安全規範》《資訊安全技術生成式人工智慧人工標注安全規範》等相關標準也已發佈,意味著國內大模型的監管已漸成體系。有關部門有必要據此繼續加強對大模型的實時監管,對輸出違法違規資訊內容的大模型開發者依法予以處置處罰。

  理性看待“大模型熱”。構建大模型是一項成本極高的系統工程,盲目開發低品質大模型不僅浪費資源,且終將被市場淘汰。保持理性客觀,因地制宜,不被輿論和資本裹挾,避免“國外炒什麼概念,我們就跟什麼風”,是科技企業的務實之選。任何一項新技術,只有與國內的發展實際以及産業佈局、市場需求等相結合,才會更好生根發芽。

  正如習近平總書記所強調:“實現科技自立自強,既要把握當今科技發展的大方向,又要堅持以我為主,突出問題導向和需求導向,提升科技創新投入效能。”理想主義的花朵,最終要盛開在現實主義的土壤裏。當“大模型熱”退散之後,能夠經受市場洗禮的,還是那些擁有原創技術、用戶體驗好、能落地生花的産品。 

來源:潮新聞    | 撰稿:撰稿 之江軒    | 責編:陳曉菲    審核:張淵

新聞投稿:184042016@qq.com    新聞熱線:135 8189 2583