這兩天大概是我們見證AI大發展的時刻。
當地時間3月17日,北京時間18日淩晨,馬斯克旗下xAI公司宣佈正式開源其大模型Grok-1。該模型引人關注的有兩點:一是參數達到3140億,遠超OpenAI GPT-3.5的1750億,是迄今參數量最大的開源大語言模型;二則它是一個混合專家大模型,簡單來説,就像把各個領域的“專家”集合到了一起,遇到任務派發給不同領域的專家,最後匯總結論,提升效率。
就在這一新聞産生的“硝煙”還未散去,有媒體爆料,OpenAI的CEO奧特曼首次公開表示,GPT-5將實現史詩級性能躍升。而在硬體方面,英偉達再次推出“超級晶片”——Blackwell B200 GPU和GB200;B200一塊能頂5個H100,30倍推理加速,能訓練萬億參數大模型。
今年,我們或將見證AI又一歷史性升級。
“愛諷刺”的大模型&“碾壓”的大模型
先從馬斯克的Grok-1説起。
在國內外形形色色的大模型中,Grok跟馬斯克本人一樣,自帶流量。去年3月,馬斯克註冊成立xAI。團隊12名初創人員來自DeepMind、OpenAI、谷歌研究院、微軟研究院、特斯拉、多倫多大學等,據悉曾參與過DeepMind的Alpha Code和OpenAI的GPT-3.5和GPT-4等項目。所以,一開始大家都相信它是衝著GPT去的。
成立公司半年多,xAI就發佈了Grok。業內評價集中在兩點:只訓練了兩個月,部分能力就超越GPT3.5;以及,不知是有意還是無意的,這是一個善於諷刺的聊天機器人。
諷刺的特徵很符合馬斯克的做派。這位OpenAI創始人之一,就多次公開諷刺OpenAI公司一點都不“open”,沒有開源大模型,前不久還因此一紙訴狀將OpenAI告上法庭;然後在吊足了各方胃口後,開源了自己的大模型——不過是Grok-1,不是最新版的Grok-1.5。熟悉行業情況的讀者知道,大模型差半代,也會差很遠。
不知是否真的因為馬斯克發佈“挑戰書”,OpenAI“迎戰”了:有媒體報道,奧特曼在矽谷出席一個活動時現場表示,GPT-5的性能提升的程度將超出預期,甚至還表示,低估GPT-5能力的初創公司將被下一代模型所碾壓。
對於Grok-1的開源,國內業內人士比較“看淡”。記者採訪了幾位大廠的大模型專家,有的表示要先測試下再説;有的説嘗試其他大模型並不是自己的主業;也有的表示了肯定,覺得對大模型發展整體生態建設、生態多元化有一定促進作用,“多個方向總是好的”。
相比下,GPT-5的關注度明顯更高。
“GPT-5可能將在多個方面帶來創新和改進,比如包括更好的理解和生成語言的能力、更廣泛的知識覆蓋、更高效的學習演算法、更強的邏輯推理能力以及更低的誤解率等。”同濟大學電子與資訊工程學院吳迪博士説,每次GPT系列模型的升級,OpenAI都在力求突破現有的限制,包括提高模型的泛化能力、減少偏差和誤導資訊的生成,以及提升交互的自然性和用戶體驗。史詩級的性能躍升可能還會包括改進的安全性和可靠性,以確保AI技術的負責任使用,並減少潛在的負面影響。
開源或閉源都不簡單
“企業選擇開源或閉源,並沒有大家想像中這麼簡單。”浙江大數據交易中心總經理孔俊告訴記者。一般而言,企業開源要有足夠的技術自信,門檻還是蠻高的,比如阿裏通義千問大模型在IDC的“AI大模型技術能力評估測試”中獲得了6項滿分。
選擇開源,有打造生態、獲取數據等多方面考量。有專家表示,開源其實並不一定意味著做公益,也有商業化的考量,可能其商業利益比較長遠,而現階段需要拓展生態、擴大影響力。
據研究機構觀察,相關大模型廠商在開源還是閉源選擇上十分靈活:目前,完全閉源的國外有OpenAI的GPT-3.5、GPT-4,國內有百度的文心大模型;先閉源再開源,有阿裏雲的通義千問;也有先開源再閉源,比如百川智慧的Baichuan-7B、Baichuan-13B。
“大模型三要素,數據、算力、演算法。開源可能因為數據不夠,就以開放合作的模式,邀請有數據的各方面進來嘗試。”孔俊説,這也是數據使用的一種方式,或對國內推進數據要素市場化有一定參考價值。
當地時間本週一,英偉達召開年度開發者大會,黃仁勳公佈了新一代GPU架構Blackwell,支援構建實時生成式AI。有業內人士分析,英偉達的新架構離不開開源的支援。2022年5月,在挨了開發者們十年罵後,英偉達終於推動GPU計算的開源化,吸引了大量研發人員參與創新,PyTorch、TensorFlow等被廣泛使用的深度學習框與英偉達GPU深度綁定,這也為英偉達自家GPU産品積累了大量優化經驗。
更重要的是,這種良性的生態互動建立起來後,市場也隨之打開。據悉,目前英偉達的高端GPU已佔據全球88%的市場份額,市值約為2.2萬億美元,僅次於微軟和蘋果。
“大模型開源會成為一種趨勢,並形成基礎版本開源、高階版本閉源的格局。”浙江大學軟體學院教授、複雜系統與數據工程研究所副所長張微向記者科普道,開源可以理解為是一名高中生,具備一定基礎知識,有很強的拓展空間,然後進入閉源的大學學習階段,選擇文、理、醫等具體方向,也就是場景細分化、專業化。
綜合現階段國內外發展趨勢,張微建議,一方面算力、演算法、數據等基礎建設確實很重要,另一方面,我國産業門類、産業鏈比較齊全,製造業相對發達,這也是一大優勢;國內大模型廠商和初創公司,當下的方向可以放在細分領域上,爭取在行業上領先。
基礎、基礎還是基礎
面對這次AI軟硬體“史詩級升級”,相關人士還是再次強調了基礎的重要性。
在張微看來,儘管現在大模型“百舸爭流”,但隨著産業發展,真正基礎性的通用大模型最後不會留下太多,就像當年共用單車的市場競爭過程一樣。而這也對特別是大公司打造通用性大模型提出了更高要求。
“從整個産業發展來看,還是要從基礎抓起。”吳迪説,一方面,開源的大模型並不是説簡單拿來用,也要學習其邏輯架構,要不然只能一直跟在別人身後;另一方面,即使是開源大模型,其核心部分並不一定百分之百開源,尤其是最新版本的大模型,馬斯克的xAI如此,OpenAI也是如此;就像中國網友評價特斯拉的開源“已經落後”,一個道理。
相比下,吳迪更覺得國內大模型在産學研結合方面力度還可以進一步增加,“高校有技術,但硬體條件相對不足。大模型對硬體配置要求很高,往往需要硬體集群,這可能是企業的優勢。而説得更遠一點,目前全世界的大模型,本質上都是統計概率模型。這就離不開對數學基礎的重視。”
孔俊也強調了對政府、高校、企業合作的重視,“數據、算力、演算法確一不可。目前政府部門正在努力加大高品質數據供給、培育國産算力,鼓勵高校企業加快演算法研究。”
目前,我國在算力方面儘管頂級晶片相對缺乏,但總量及增量發展迅速。去年11月,工信部公佈的一組數據顯示,近年來,我國算力産業年增長率近30%,算力總規模位居全球第二。截至去年底,我國算力核心産業規模達到1.8萬億元。
當然,算力有了也得用起來,就涉及到國産算力好不好用的問題。此前也有業內人士指出,我們的算力存在一方面花了很多錢但不好用、一方面算力又短缺的“怪圈”。壓力給到國內自主研發的算力晶片。
除了上述産業基礎,不少業內人士也提到了一些制度基礎,比如法律。
當地時間13日,歐洲議會正式投票通過並批准《人工智慧法案》,以嚴格規範人工智慧的使用。
3月16日上午,在北京舉辦的首屆“AI善治論壇”發佈《人工智慧法(學者建議稿)》。起草專家組由中國政法大學數據法治研究院、西北政法大學法治學院、中國資訊通信研究院等七家單位的專家組成。
“隨著技術進步,持續關注和評估AI技術的社會、倫理和安全影響是非常重要的。AI領域的快速發展需要伴隨著相應的政策、指導原則和監管措施,以確保這些先進技術能夠為社會帶來積極的影響,並有效管理潛在的風險。”吳迪説,這方面,中國因為大數據、人工智慧當産業起步比較早,對個人數據隱私保護關注度更高;而法制的完善,將進一步推動人工智慧産業的發展。
來源:潮新聞 | 撰稿:金春華 | 責編:俞舒珺 審核:張淵
新聞投稿:184042016@qq.com 新聞熱線:135 8189 2583