最近,美國加州大學舊金山分校的科研團隊使用人工智慧(AI)解碼系統,把人的腦電波轉譯成英文句子,最低平均錯誤率只有3%。這項研究3月30日發表在《自然·神經科學》雜誌上。

參加實驗的4名志願者都是癲癇患者,他們由於治療需要在大腦表面植入了數百個微電極。研究人員正是利用這些微電極陣列來記錄其腦電波信號,然後借助人工智慧系統進行解碼。

正確率勝過人工速記員

“10年前,科學家首次從人類大腦信號中解碼出語音,但是解碼的精度和速度遠低於自然語速。”論文作者稱。

低到什麼程度呢?

研究團隊介紹,迄今為止,在直接從腦電波中解碼語音的研究中,腦機介面系統僅限于解碼單音節,或在志願者連續念出約100個單詞的情況下,只正確解碼不到40%的單詞。

為提升解碼精確度,研究團隊從機器翻譯中獲得啟發,訓練了一種迴圈神經網路。研究中,4名志願者被要求大聲重復朗讀30至50句話。他們大腦外側皮質上分佈著大量微電極,可以監測到相應的大腦神經活動。這些腦電波數據輸入人工智慧系統後,先被編碼成一串序列,然後解碼成相應的英文句子。

研究人員表示,這項研究展示了以高精度和自然語速來解碼皮層腦電圖。在對其中一個志願者的腦電波解碼任務中,平均每句話只有3%需要糾正——勝過專業人工速記員平均5%的錯誤率。

但研究團隊也強調,該研究涉及的句子量比較少。“如果你嘗試不使用這50個句子的數據集,解碼就會糟糕很多。”論文第一作者約瑟夫·馬金接受外媒採訪時説。

展示AI解讀神經信號的潛力

“這項研究的創新之處在於,採用端到端的深度學習網路實現神經信號翻譯,從工程角度展示了人工智慧技術應用於神經信號解讀的潛力。”清華大學醫學院神經工程實驗室、清華大學人工智慧研究院的洪波教授在接受科技日報記者採訪時評價説。

洪波分析,這項研究的難點在於兩個方面。

首先是採用了高密度微電極陣列,間距4毫米,多達256個電極,覆蓋大腦皮層表面的關鍵腦區,獲取了足夠的神經資訊用於解碼。這種電極在國內尚沒有可用於臨床的産品。

另外,研究中深度迴圈神經網路的訓練,除了採用時間軸上的卷積操作提高特徵提取能力,還把語音頻譜特徵也作為訓練目標,大大降低了對神經數據量的需求。

“腦機介面的一個核心難題是神經資訊的解碼和翻譯,腦電信號噪聲大,背後的神經編碼機制複雜未知,這都是挑戰。”洪波認為,以深度學習為代表的人工智慧技術發展,為腦機介面打開一條應對該挑戰的新路徑。

不過,在洪波看來,人工智慧與腦機介面結合,也帶來新難題:如何獲得大量的訓練數據?來自人腦的高精度神經數據通常只在臨床條件下才能獲得,這會使神經網路訓練陷入困境。

現實應用仍存技術障礙

“這項技術目前主要用於癲癇外科的臨床,幫助外科醫生在切除癲癇病灶之前,確定關鍵的語言功能區。要讓漸凍人、高位截癱等殘疾患者用上這樣的腦機介面,還要繼續解決長效電極和解碼效率的問題。”洪波説。

他認為,相關技術在未來實際應用中,仍然有很大的技術障礙,例如高密度的微電極陣列目前還無法長期植入,難以作為未來腦機介面的標準電極。

洪波團隊也在和材料、微電子以及臨床團隊合作,開發可以長期植入的微創解決方案。他告訴記者,根本上説,人工智慧應用於腦機介面,關鍵門檻還是長期可靠的神經電極和清晰準確的神經解碼規律。

“人們所期待的戴上腦電帽就能讀出心裏話,從科學和工程角度來看還有很遠的距離。但腦科學和人工智慧技術的結合,有可能加速這些探索和研發的進程。”洪波説。


責任編輯:董悅