在“宮鬥”半年後,OpenAI離職潮的體面還是被打破了,該公司“保衛人類”的團隊分崩離析。不僅首席科學家伊利亞·蘇茨克沃(Ilya Sutskever)和他的親信、超級對齊團隊負責人之一的簡·雷克(Jan Leike)雙雙離職,他們共同領導的“超級智慧對齊團隊(AI風險團隊)”也被證實解散。同時,他們直指離職內幕——OpenAI創始人奧特曼(Sam Altman)不給資源、力推商業化不顧安全。這也再次引發了人們對該公司在開發AI産品時如何平衡速度與安全的質疑。
突然離職
最新的GPT-4o上線短短幾天之內,OpenAI迎來一次又一次的人事動蕩。美東時間5月14日,伊利亞·蘇茨克沃官宣離職。同日,簡·雷克也宣佈離職。上週五,OpenAI最終證實,由蘇茨克沃和簡·雷克共同領導的“超級智慧對齊團隊”已經解散。
官宣離職次日淩晨,簡·雷克在社交平臺X上連發13條推文,爆料離職的真正原因及更多內幕。總結來看,一是算力資源不夠用,二是OpenAI對安全不夠重視。這也是OpenAI高管級別的人物首次公開承認公司重視産品開發勝過安全。
此次兩位離職科學家負責的超級對齊項目,成立的時間才不到一年,之前定下的目標是在四年內解決超智慧AI的對齊問題。OpenAI曾表示,會將20%的算力用於該項目的研究。
而站在奧特曼的立場,維護超級對齊團隊是一項龐大的開支,這勢必會削弱OpenAI新産品開發的資源,而投資超級對齊團隊實際是在投資未來。據OpenAI超級對齊團隊的一位人士透露,20%計算資源的承諾被打了折扣,其中一小部分計算的請求經常被拒絕,這阻礙了團隊的工作。
而一份有關“封口協議”的爆料,又讓這件事顯得更加撲朔迷離。一位名為Kelsey Piper的OpenAI前員工爆料稱,公司任何員工的入職文件説明中都有這樣一項要求,即“在離開公司的60天內,員工必須簽署一份包含‘一般豁免’的離職文件。如果沒有在60天內完成簽署,員工的股權收益就會被取消”。也就是説,OpenAI以股權為條件,制定了令員工認為不合理的離職條款。
5月19日,奧特曼在爆料傳出後迅速于X回應稱,“我們從未收回過任何人的既得股權,如果有人不簽署離職協議,我們也不會這樣做,既得股權就是既得股權”。
“宮鬥”余波
與離職風波同步而來的是OpenAI面臨的輿論危機,也是領導層和董事會都不願意看到的輿論危機。畢竟公司從上一波宮鬥戲結束到趨近平穩,才過去不到半年。據媒體不完全統計,自去年11月至今,OpenAI至少有7名注重AI安全的成員辭職或被開除。
當時的種種“劇情”,或已透露出這個團隊和OpenAI管理層之間的分歧。在那場董事會風波中,蘇茨克沃曾與OpenAI原董事會合作試圖解雇奧特曼。OpenAI在公告中稱奧特曼對董事會不夠坦誠。
當時有人將其解讀為:OpenAI可能已經在內部實現了AGI(通用人工智慧),但並沒有將消息及時同步給更多人員,為了防止該技術未經安全評估就被大規模應用,蘇茨克沃等人按下了緊急停止鍵。不過僅僅一個週末的時間,奧特曼就重返OpenAI董事會,並且之前罷免他的董事被紛紛解雇,董事會宣佈重組。
一場風波之後,奧特曼似乎可以更自由地管理OpenAI了,而蘇茨克沃陷入了尷尬。這幾個月來,他動態甚少。據知情人士透露:“蘇茨克沃已經大約有6個月沒有在OpenAI的辦公室出現了,他一直遠端領導超級對齊團隊”,直到正式宣佈離職。
至於接下來的安排,蘇茨克沃在其X推文中稱他會開發一個全新有意義的項目,適當的時候就會披露更多細節。有人猜測,他可能會加入馬斯克的xAI,雖然有戲劇性,但也不排除可能性。
蘇茨克沃1985年出生於蘇聯,成長於以色列,會俄語、希伯來語和英語。在多倫多大學求學期間,他師從“現代人工智慧之父”傑弗裏·辛頓,並與其合作開發了AlexNet,該神經網路的誕生極大地推動了深度學習技術在圖像識別領域的應用。
2015年,在馬斯克力邀之下,蘇茨克沃加入OpenAI,成為初創團隊的一員,在Chat-GPT語言模型和Dall-E圖像生成器的研發過程中扮演了關鍵角色。
《紐約時報》報道稱,蘇茨克沃加入OpenAI後參與了涉及神經網路的人工智慧突破,這項技術在過去十年中推動了該領域的顯著進步。2023年,蘇茨克沃入選2023年度十大科學人物榜單(Nature's 10),被Nature評價為“ChatGPT和其他改變社會的人工智慧系統的先驅”。
安全質疑
在外界看來,OpenAI的確已經不再像當初那樣開源,網友也開始戲稱其為“CloseAI”。在公司表達的立場上,閉源是出於安全考慮。但如今,安全性的負責人相繼離職並公開批判,這意味著,OpenAI再用“安全”因素為閉源做解釋,已經有些難以維繫局面了。
馬斯克針對OpenAI超級對齊團隊已經解散這一消息評價稱:“這顯示安全並不是OpenAI的首要任務。”據外媒Vox報道,一位不願透露姓名的公司內部人士表示:“這是一個信任一點一點崩潰的過程,就像多米諾骨牌一張一張倒下一樣。”
深度科技研究院院長張孝榮對北京商報記者表示,對於OpenAI來説,産品和技術的升級是一方面,如何處理好人才和管理的問題,也顯得更為重要了。尤其是AI這類話題,在其不斷爬升的過程中,不管是對技術本身還是公司的爭議只會越來越多。
當AI安全領域的領軍人物之一説世界上領先的AI公司沒有走在正確的軌道上時,所有人想必都有理由感到擔憂。正如簡·雷克在X上發出的勸告:“建造比人類更聰明的機器本身就是一項危險的嘗試。OpenAI正肩負一個代表著全人類的巨大責任。OpenAI必須成為一家安全第一的人工智慧公司。”
面對週末曝光的大量資訊,奧特曼回復稱,接下來幾天會寫一篇長文説明這些問題。此刻,市場、行業和資本都在等OpenAI的更多解釋。
(責任編輯:譚夢桐)