> 指數

植入物結合AI將大腦信號轉為語音

荷蘭拉德堡德大學和烏得勒支大學科學家成功將人類的大腦信號轉化為人們能聽得見的語音。借助植入物和人工智慧解碼來自大腦的信號,他們能夠預測用戶想説的話,準確率為92%至100%。研究人員希望這項技術能夠幫助癱瘓且無法溝通的患者再次“發聲”。相關論文發表于最新一期《神經工程雜誌》。

拉德堡德大學科研團隊請臨時植入大腦植入物的非癱瘓用戶在測量大腦活動時大聲説出一些單詞,借助這一方法,他們在大腦活動和語音之間建立了直接的映射關係,隨後,使用先進的人工智慧模型將大腦活動直接轉化為聽得見的語音。這意味著他們不僅能猜測用戶在説什麼,而且還可立即將這些單詞轉化為可理解的聲音。更重要的是,重建後的語音在語調和説話方式上甚至聽起來像癱瘓人士發出來的。

在最新研究中,研究人員用相對較小的數據集重建可理解的語音,表明模型可用有限的數據揭示大腦活動和語音之間的複雜映射關係。他們還對志願者進行了聽力測試,以評估合成單詞的可識別性。結果表明,這項技術不僅正確識別出了單詞,準確率高達92%到100%,還讓這些單詞像真實的聲音一樣被聽得見和理解。

不過,研究人員強調,最新技術仍有一些局限性。他們的目標是僅根據人們的大腦活動來預測他們想説的完整句子和段落。要實現這一目標,還需要開展更多實驗,研製出更先進的植入物,採集更大的數據集,創建更先進的人工智慧模型。(記者劉霞)

來源:科技日報  責任編輯:石進玉

(原標題:植入物結合AI將大腦信號轉為語音)