> 要聞

國産AI大模型加速“上車”

上海白領劉先生,坐上他的汽車主駕,向右扭頭説:“打開那窗戶。”話音剛落,副駕駛的車窗自動開了。

這輛車搭載了基於國産AI大模型的智慧系統,就像有了人的大腦和神經網路,通過學習提升語音、視覺等多模態感知能力,在座艙裏提供更人性化的交互,智慧駕駛方面計算更精準,越來越像“老司機”開車。

當國産AI大模型開始加速“上車”,人工智慧正以更加觸手可及的方式走進現實生活。

會思考的多功能助手

人們在世界設計之都大會上參觀極越汽車(2023年9月30日攝)。新華社記者 王翔 攝

“汽車是一個終端,承載大量先進技術,先是電動化,現在是智慧化,以後還要和整個社會交通體系聯起來。”哪吒汽車創始人方運舟説。

“有一段時間,車的智慧化體現為一個個App,你問它答。現在我們的車搭載360智腦大模型,開始會思考了,與人交互更自然,識別車內外的人與物更準確,增強自動駕駛系統的效率和安全。這是初步探索,以後是強大的多功能助手。”學習並研究汽車技術30年的方運舟説。

“車會思考”怎麼體現?

方運舟舉例,以前司機要對語音助手提出明確指令,如“打開空調”。AI大模型接入車內語音助手後,司機只需要説:“我有點冷”。大模型會像人一樣考慮如何滿足司機的需求,執行多個動作,如關上車窗、把空調調到司機習慣的溫度、風力調至常用的檔位等。

在2023上海車展上,參觀者在哪吒GT展車邊駐足觀看(2023年4月25日攝)。新華社記者 王翔 攝

“車會思考”背後是什麼?

中科院院士姚期智表示,大模型在技術上可分為通用、行業、場景三類。大模型的通用智慧必須細化到各個行業,給它投喂行業中的專業數據,通過訓練形成場景化、定制化、個性化,産生專有的模型,才能給各垂直領域帶來AI革命,關鍵是算力、數據和模型的匹配。

賽迪智庫未來産業研究中心人工智慧研究室主任鐘新龍説,以前的人工智慧是規則驅動,大模型則是數據驅動,數據決定模型的品質,影響泛化能力。“泛化就是學習並理解數據中隱含的規律,進而能夠對未曾見過的數據給出恰當的輸出,就像舉一反三、學以致用。”

國家網信辦4月發佈的公告顯示,我國已有117個大模型完成生成式人工智慧服務備案。

記者梳理髮現,目前“上車”的大模型,既有華為的盤古、百度的文心一言、科大訊飛的星火、360的智腦等科技企業的通用大模型,也有比亞迪的璇璣、小鵬的靈犀等車企自研的行業大模型。從終端看,已有超過10個品牌的汽車搭載大模型。

雲端和車端協同工作

工作人員在廣東肇慶小鵬汽車智慧網聯科技産業園內總裝車間查看即將下線的整車(2023年10月9日攝)。新華社記者 鄧華 攝

大模型賦能汽車是不斷深入的過程,目前集中體現在智慧座艙和智慧駕駛上。

極越汽車座艙裏,有塊35.6英寸的一體螢幕。司機劉先生説,因為文心一言大模型的支援,螢幕顯示的各種應用“可見即可説,可説即可做”。記者看到這樣的對話場景:

司機:“Simo,我還有多久能到家?”

大模型:“1小時。”

司機:“在我到家前30分鐘,打開家裏的空調、拉上窗簾。”

大模型:“好的。”

司機不需要操作車裏或手機上任何按鍵,通過Simo智慧語音系統控制車內一切,還可通過螢幕上的小度App,遠端控制家中電器。即使出現多人指令、聲音交織、連續對話等情況,大模型也可理解每人不同的需求,滿足不同的操作指令。極越首席執行官夏一平表示,極越車主目前對智慧語音系統的使用率達98%,平均每人每天用60多次。

“以前的語音識別需要在雲端解析數據,再下載到車端,現在全部的語音識別都是離線,這樣反應快,而且哪怕沒網路,也不影響開車。”夏一平説。

這得益於大模型在雲端和車端的協同工作。鐘新龍説,雲端大模型的參數規模大、算力強,完成大量數據標注、數據融合等任務,降低成本和錯誤率;車端大模型的參數量小一些,無需聯網也有算力,節省車端計算的推理時間,即使雲與車端通訊有時延,也能確保安全。

“我們已把大模型應用到整車智慧,垂直整合所有場景應用。”比亞迪集團董事長王傳福表示,智慧化架構有一個“中央大腦”,車端AI和雲端AI,車聯網、5G網、衛星網,及傳感鏈、控制鏈、數據鏈、機械鏈,實時捕捉內外部環境的變化,在毫秒間將資訊匯總反饋到“大腦”思考決策,調節車輛“身體”狀態,提升駕乘安全性和舒適性。

學習能力迭代加速

展望大模型“上車”的發展前景,百度創始人李彥宏表示,隨著技術的進步,汽車機器人將實現每天開“新版本”的體驗,就如同購買新車一樣,給用戶帶來持續的驚喜。

自動駕駛的迭代速度將加快。專家普遍認為,大模型可重構自動駕駛技術架構、合成模擬場景數據、預測安全風險,加快自動駕駛技術開發和應用落地。

在大模型出現前,自動駕駛是靠任務驅動,即程式員依據特定的場景,編寫解決方案的代碼,當車輛在行駛中感知到相應情況,便按照之前設定的方式處理。

“有了大模型後,我們發現有巨大的機會讓原來特別多的泛化代碼變成簡單的端到端的模型,使感知、行為、控制在很多領域比我們想像的聰明很多,比如讀懂‘前方ETC即將維修,請換道’等標識。”小鵬汽車創始人何小鵬説,以前小鵬智駕系統每一季度更新一次,現在平均每天有3.87個版本快速迭代。

這是在第21屆廣州國際汽車展覽會上拍攝的小鵬展臺的飛行汽車(2023年11月17日攝)。新華社記者 鄧華 攝

未來,基於數據驅動的大模型端到端自動駕駛,可通過單個神經網路完成所有模組任務。中國工程院院士張亞勤表示,通過視頻大模型,可根據環境、交通標誌要素,結合車輛的控制、轉向等駕駛行為生成大量可控視頻,用於端到端自動駕駛的訓練、測試,解決自動駕駛長尾場景數據積累問題。

大模型可整合座艙分散功能,提供類人理解能力的人機交互體驗。商湯科技首席科學家王曉剛認為,大模型“上車”後能將座艙各單點AI功能組合起來,自動調用座艙軟硬體資源,多模態大模型能夠實現人與車的多感官交互,顯著提升交互順暢性、自然性。

“大模型‘上車’,現在帶來了從0到1的變化,未來會實現從1到100等更大變化,人會把駕駛交給車,在智慧空間處理其他事。”方運舟説。

夏一平打比方説,智慧汽車現在理解用戶的能力也許還是中學生,但大模型讓車有了每天學習的能力,很快會成為大學生、博士;現在自動駕駛的能力還是新手菜鳥,以後會變成老司機。

大模型在汽車行業的深入應用也面臨挑戰。張亞勤指出,大模型在汽車行業的應用對數據資源的流動與共用提出更高要求。王曉剛認為,大模型訓練與應用對AI晶片等算力基礎設施要求不斷提升。

大模型“上車”的成長之旅才剛剛開始。

作為汽車、電子資訊、通信等領域跨界融合的産物,智慧網聯汽車已成為全球技術革命和産業變革的前沿陣地,國産汽車有望借助大模型,鞏固和擴大在智慧網聯領域的優勢,在新一輪産業革命中走在前列。

來源:新華網  責任編輯:石進玉

(原標題:國産AI大模型加速“上車”)