科技日報北京8月29日電 (記者劉霞)荷蘭拉德堡德大學和烏得勒支大學科學家成功將人類的大腦信號轉(zhuǎn)化為人們能聽得見的語音。借助植入物和人工智能解碼來自大腦的信號,他們能夠預測用戶想說的話,準確率為92%至100%。研究人員希望這項技術能夠幫助癱瘓且無法溝通的患者再次“發(fā)聲”。相關論文發(fā)表于最新一期《神經(jīng)工程雜志》。
拉德堡德大學科研團隊請臨時植入大腦植入物的非癱瘓用戶在測量大腦活動時大聲說出一些單詞,借助這一方法,他們在大腦活動和語音之間建立了直接的映射關系,隨后,使用先進的人工智能模型將大腦活動直接轉(zhuǎn)化為聽得見的語音。這意味著他們不僅能猜測用戶在說什么,而且還可立即將這些單詞轉(zhuǎn)化為可理解的聲音。更重要的是,重建后的語音在語調(diào)和說話方式上甚至聽起來像癱瘓人士發(fā)出來的。
在最新研究中,研究人員用相對較小的數(shù)據(jù)集重建可理解的語音,表明模型可用有限的數(shù)據(jù)揭示大腦活動和語音之間的復雜映射關系。他們還對志愿者進行了聽力測試,以評估合成單詞的可識別性。結果表明,這項技術不僅正確識別出了單詞,準確率高達92%到100%,還讓這些單詞像真實的聲音一樣被聽得見和理解。
不過,研究人員強調(diào),最新技術仍有一些局限性。他們的目標是僅根據(jù)人們的大腦活動來預測他們想說的完整句子和段落。要實現(xiàn)這一目標,還需要開展更多實驗,研制出更先進的植入物,采集更大的數(shù)據(jù)集,創(chuàng)建更先進的人工智能模型。
相關稿件