近日,圍繞熱門科技話題ChatGPT,科技日報記者專訪了歐洲科學院院士、德國比勒菲爾德大學洪堡人工智慧教席教授金耀初。金教授同時兼任英國薩裏大學計算係“計算智慧”講席教授 、IEEE計算智慧學會候任理事長,曾任《IEEE認知與發育系統彙刊》主編等職。
生成式模型的重大進展
談到ChatGPT最核心的東西,金耀初表示,ChatGPT所代表的技術是第三波人工智慧技術取得的一個重大進展。它基於生成式預訓練Transformer模型,採用了“自注意力機制”。與傳統的判別式模型相比,生成式模型的最大特點是直接學習訓練數據本身的特點,因而能更有效地學習大容量的樣本,特別是海量的語言、視覺資訊。
傳統的語言處理模型一般只能根據字詞的前後相鄰詞語來找它們之間的關係,因此有很大的局限性。Transformer引入了自注意力機制後,它就能很靈活地找出不單是某一個句子,而是不同句子,甚至是整篇文章或不同的文章之間詞的相互關係,學習能力就增強了很多。
橫空出世非一日之功
對於ChatGPT的橫空出世,金耀初強調這僅僅是大眾的感受。從科研的角度看,ChatGPT也是一步一步演進而來的。根據OpenAI發表的論文,ChatGPT是花了很長時間,用了各種學習方法不斷訓練和微調出來的。生成式模型給出的答案並不是人們事先給它的訓練數據,而是模型生成出來的,所以很難保證百分之百正確。ChatGPT在訓練過程中用到非常多的最新的學習技術。例如,無監督學習、有監督學習、多任務學習、小樣本學習、自監督學習等。
此外,它還加入了基於人類反饋的強化學習,以獲得與人類對齊、共情能力。通過人類評價,即給它生成的答案打分來選擇一個最佳的答案。這個過程實際上是一個強化學習過程,也就是對原來的模型進行微調。其他AI模型可能沒有像ChatGPT這樣,用大量的人類反饋來使得模型能産生更加符合人類期待的回答,相應的體驗就會有差距。
尚不具備自主的“心智”
金耀初談到,作為一個從文本到文本的對話系統,ChatGPT最強的地方是對自然語言的充分學習,生成的文本更加“流暢”並符合人類體驗,這是一個重大的技術創新。但值得注意的是,生成式機器學習模型有很多,比如從文本到語音資訊,或者文本到圖像資訊,這些方面ChatGPT的表現可能就沒那麼好了。這是它的一個局限性。
另一方面,目前ChatGPT訓練的數據截至2021年,沒有訓練過的東西,它是不可能準確回答出來的。換句話説,目前的模型不具備創造新知識的能力。ChatGPT回答問題時用的是推理。它不是那種在數據庫中搜索答案的概念。生成式模型是根據問題本身聯想出一個答案。這個答案是模型“學習消化”後産生出來的東西,不是原始的數據。嚴格意義上來説,模型本身甚至不知道這個答案的真正含義,它也不能保證答案肯定是對的。
ChatGPT不是“萬能”的
金耀初認為,ChatGPT離真正的專業應用還有一定的距離。現在大家感覺很新奇,都在嘗試玩一玩。有的人甚至以為ChatGPT什麼都能幹,可以很快用在自動駕駛之類的很多應用上,這其實是誤解。自動駕駛的重點不是文本到文本的問題,純粹的生成式模型是不夠的。它需要其他判別式的機器學習模型,特別是實時場景的識別。
以現在熱議的醫療服務為例,儘管ChatGPT在美國執業醫師資格考試中取得不錯的成績,但真實情況下人們會用ChatGPT來代替醫師進行診療嗎?至少目前還不行,因為無法保證它的答案百分之百是正確的。有人説ChatGPT有時會一本正經地胡説八道,這樣的描述是比較中肯的,人們不能忽視這種風險。
期待未來更多突破
金耀初表示,這一波人工智慧可能不會像第一波和第二波人工智慧浪潮那樣很快偃旗息鼓。它會繼續發展下去,未來三五年,人工智慧領域可能還會涌現一些令人吃驚的突破。很多基於ChatGPT的新的想法或技術或會涌現,並在此基礎上找到真正好的細分領域的應用。
至於人工智慧和機器人的結合,金耀初強調,從某種意義上來説,這一直是人工智慧研究的重點之一。現在ChatGPT與人對話這麼流暢,如果把它與數字虛擬人技術結合起來,一般人可能很難分辨出電腦螢幕裏回答問題的是真人還是一個數字人。當然,未來的發展過程中會涉及很多人工智慧的本質問題,包括信任、責任、倫理、法律問題等。樂觀地看,ChatGPT等人工智慧應用的影響力急劇擴大,反過來會在一定程度上推動上述問題的解決。