偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

Meta:不用插管!AI看看腦電圖就知道你在想啥

人工智能 新聞
Meta表示,以后AI就能讀懂你在想啥了。

每年,全世界有超過 6900 萬人飽受創(chuàng)傷性腦損傷的折磨,他們中的許多人無法通過語音、打字或手勢進行交流。如果研究人員開發(fā)出一種技術(shù),可以通過非侵入性的方式直接從大腦活動解碼語言,這些人的生活將會大大改善。 現(xiàn)在,Meta搞了個新研究,就是要解決這個事兒。 

剛剛,Meta AI官方博客發(fā)文,介紹了可利用AI從大腦活動中直接解碼語音的新技術(shù)。

 圖片 

從一段時間為3秒的大腦活動中,這個AI可以從人們?nèi)粘J褂玫?793 個單詞的詞匯表中解碼相應(yīng)的語音片段,準(zhǔn)確率高達 73%。 

以往,從大腦活動中解碼語音一直是神經(jīng)科學(xué)家和臨床醫(yī)生的長期目標(biāo),但大部分進展依賴于侵入性大腦記錄技術(shù),例如立體定向腦電圖和皮層電圖。 

這些設(shè)備可以提供比無創(chuàng)方法更清晰的信號,但需要神經(jīng)外科干預(yù)。 

雖然這項工作的結(jié)果表明從大腦活動記錄中解碼語音是可行的,但使用非侵入性方法解碼語音將提供一種更安全、更具可擴展性的解決方案,最終可以使更多人受益。 

然而,這是非常具有挑戰(zhàn)性的,因為非侵入式錄音是出了名的嘈雜,并且由于各種原因,包括每個人的大腦和傳感器放置位置的差異,錄音會話和個人之間可能會有很大差異。 Meta通過創(chuàng)建一個經(jīng)過對比學(xué)習(xí)訓(xùn)練的深度學(xué)習(xí)模型來應(yīng)對這些挑戰(zhàn),然后使用它來最大限度地對齊非侵入性大腦記錄和語音。 

圖片 

為此,Meta使用一個由 FAIR 團隊于 2020 年開發(fā)的、開源的自我監(jiān)督學(xué)習(xí)模型wave2vec 2.0,來識別聽有聲讀物的在志愿者大腦中語音的復(fù)雜表示。 Meta主要關(guān)注兩種非侵入性技術(shù):腦電圖和腦磁圖(簡稱 EEG 和 MEG),分別測量由神經(jīng)元活動引起的電場和磁場的波動。 

在實踐中,這兩個系統(tǒng)每秒可以使用數(shù)百個傳感器拍攝大約 1000 個宏觀大腦活動的快照。 Meta利用了來自學(xué)術(shù)機構(gòu)的四個開源 EEG 和 MEG 數(shù)據(jù)集,利用了 169 名健康志愿者的 150 多個小時的錄音,在這些錄音中,是他們正在聽有聲讀物和英語和荷蘭語的孤立句子。 

然后,Meta將這些 EEG 和 MEG 記錄輸入到一個「大腦」模型中,該模型由一個帶有殘差連接的標(biāo)準(zhǔn)深度卷積網(wǎng)絡(luò)組成。 

眾所周知,EEG 和 MEG 記錄在個體之間存在很大差異,因為個體大腦解剖結(jié)構(gòu)、大腦區(qū)域神經(jīng)功能的位置和時間差異以及記錄期間傳感器的位置。 

在實踐中,這意味著分析大腦數(shù)據(jù)通常需要一個復(fù)雜的工程管道,用于重新調(diào)整模板大腦上的大腦信號。在以前的研究中,大腦解碼器接受了少量錄音的訓(xùn)練,以預(yù)測一組有限的語音特征,例如詞性類別或少量詞匯中的單詞。 

為了方便研究,Meta設(shè)計了一個新的主題嵌入層,它被訓(xùn)練成端到端,將所有的大腦記錄排列在一個共同的空間。

圖片

為了從非侵入性大腦信號中解碼語音,Meta訓(xùn)練了一個具有對比學(xué)習(xí)的模型,以校準(zhǔn)語音及其相應(yīng)的大腦活動 最后,Meta的架構(gòu)學(xué)會了將大腦模型的輸出,與呈現(xiàn)給參與者的語音的深度表征相匹配。 

在Meta之前的工作中,我們使用wav2vec 2.0,表明這種語音算法會自動學(xué)習(xí)生成與大腦一致的語音表示。 

wav2vec 2.0中出現(xiàn)的語音“類腦”表示,使Meta的研究人員自然而然地選擇構(gòu)建自己的解碼器,因為它有助于讓Meta的研究人員了解,應(yīng)該從大腦信號中提取哪些表示。 

圖片

Meta最近展示了 wav2vec 2.0(左)的激活映射到大腦(右)以響應(yīng)相同的語音。算法的第一層(冷色)的表示映射到早期聽覺皮層,而最深層映射到高級大腦區(qū)域(例如前額葉和頂葉皮層) 

訓(xùn)練后,Meta的系統(tǒng)執(zhí)行所謂的零樣本分類:給定一個大腦活動片段,它可以從大量新音頻片段中確定該人實際聽到的是哪個片段。 

算法推斷出這個人最有可能聽到的詞。這是一個令人興奮的步驟,因為它表明人工智能可以成功地學(xué)會在感知語音時解碼大腦活動的嘈雜和可變的非侵入性記錄。 

下一步是看看研究人員是否可以擴展這個模型,直接從大腦活動中解碼語音,而不需要音頻剪輯池,即,轉(zhuǎn)向安全和多功能的語音解碼器。 研究人員的分析進一步表明,我們算法的幾個組成部分,包括使用 wav2vec 2.0 和主題層,對解碼性能是有益的。 

此外,Meta的算法隨著 EEG 和 MEG 記錄的數(shù)量而改進。 實際上,這意味著Meta研究人員的方法受益于大量異構(gòu)數(shù)據(jù)的提取,并且原則上可以幫助改進小型數(shù)據(jù)集的解碼。 

這很重要,因為在許多情況下,很難讓給定的參與者收集大量數(shù)據(jù)。例如,要求患者在掃描儀上花費數(shù)十個小時來檢查系統(tǒng)是否適合他們是不切實際的。 相反,算法可以在包括許多個人和條件的大型數(shù)據(jù)集上進行預(yù)訓(xùn)練,然后在數(shù)據(jù)很少的情況下為新患者的大腦活動提供解碼支持。 

Meta的研究令人鼓舞,因為結(jié)果表明,經(jīng)過自我監(jiān)督訓(xùn)練的人工智能可以成功地從大腦活動的非侵入性記錄中解碼感知到的語音,盡管這些數(shù)據(jù)中存在固有的噪聲和可變性。 當(dāng)然,這些結(jié)果只是第一步。在這項研究工作中,Meta專注于解碼語音感知,但實現(xiàn)患者交流的最終目標(biāo)需要將這項工作擴展到語音生產(chǎn)。 

這一研究領(lǐng)域甚至可以超越幫助患者,潛在地包括啟用與計算機交互的新方式。 

從更大的視野來看,Meta的工作是科學(xué)界使用人工智能更好地理解人類大腦的努力的一部分。Meta希望公開分享這項研究,以加快應(yīng)對未來挑戰(zhàn)的進展。

論文解析

圖片

論文鏈接:https://arxiv.org/pdf/2208.12266.pdf 

本文提出了一個單一的端到端架構(gòu),在大量的個體群中進行對比性學(xué)習(xí)訓(xùn)練,以預(yù)測自然語音的自監(jiān)督表示。 

我們在四個公共數(shù)據(jù)集上評估了模型,其中包括169名志愿者在聽自然語音時用腦磁圖或腦電圖(M/EEG)記錄的數(shù)據(jù)。 

這為從非侵入性的大腦活動記錄中實時解碼自然語言處理提供了一條新的思路。 

方法和架構(gòu) 

我們首先正式確定了神經(jīng)解碼的通用任務(wù),并激勵使用對比性損失進行訓(xùn)練。在介紹用于大腦解碼的深度學(xué)習(xí)架構(gòu)之前,我們介紹了由預(yù)訓(xùn)練的自我監(jiān)督模塊wav2vec 2.0提供的豐富的語音表示。 

我們的目標(biāo)是在健康志愿者被動地聽他們的母語口語句子時,從用無創(chuàng)腦磁圖(MEG)或腦電圖(EEG)記錄的高維大腦信號的時間序列中解碼語音。

圖片 

口語是如何在大腦中表示的在很大程度上是未知的,因此,通常以監(jiān)督的方式訓(xùn)練解碼器,以預(yù)測已知與大腦有關(guān)的語音的潛在表示。 

從經(jīng)驗上看,我們觀察到這種直接回歸的方法面臨幾個挑戰(zhàn):當(dāng)語音出現(xiàn)時,解碼預(yù)測似乎被一個不可區(qū)分的寬帶成分所支配(圖2.A-B)。 

這一挑戰(zhàn)促使我們做出三個主要貢獻:引入對比性損失、預(yù)訓(xùn)練好的深層語音表征和專門的大腦解碼器。 

1、對比性損失 

首先,我們推斷,回歸可能是一種無效的損失,因為它偏離了我們的目標(biāo):從大腦活動中解碼語音。因此,我們用一種對比性損失來代替它,即 "CLIP "損失,它最初被設(shè)計用來匹配文本和圖像這兩種模式中的潛在表征。 

2、預(yù)訓(xùn)練的深度語音表征 

其次,Mel頻譜是語音的低層次表征,因此不太可能與豐富的皮質(zhì)表征相匹配。 因此,我們用語音的潛在表征取代了Mel頻譜Y,這些表征要么是端到端學(xué)習(xí)的("Deep Mel "模型),要么是用一個獨立的自我監(jiān)督的語音模型學(xué)習(xí)的。 在實踐中,我們使用wav2vec2-large-xlsr-531,它已經(jīng)對53種不同語言的56k小時的語音進行了預(yù)訓(xùn)練。

 3、專門的「大腦解碼器」 

最后,對于大腦模塊,我們使用一個深度神經(jīng)網(wǎng)絡(luò)fclip,輸入原始的M/EEG時間序列X和相應(yīng)的主題s的單次編碼,并輸出潛在的大腦表示Z,其采樣率與X相同。

 圖片 

這個架構(gòu)包括(1)在M/EEG傳感器上的空間注意力層,然后由一個針對特定對象的1x1卷積設(shè)計,以利用對象間的變異性,其輸入是卷積塊的堆疊。 

圖片 

結(jié)果顯示,wav2vec 2.0 模型可以從3秒的腦電信號中識別出相應(yīng)的語音片段,在1,594個不同的片段中,準(zhǔn)確率高達72.5%,在2,604個腦電記錄片段中,準(zhǔn)確率高達19.1%,可以對訓(xùn)練集中沒有的短語進行解碼。 

責(zé)任編輯:張燕妮 來源: 新智元
相關(guān)推薦

2023-07-27 08:40:45

PawSQL數(shù)據(jù)庫

2023-03-09 10:20:00

AI

2019-08-20 13:45:01

阿里巴巴面試Java

2020-07-20 10:20:30

this前端代碼

2023-09-28 08:42:56

PyQt6Python語言

2023-07-26 08:22:17

JavaIO流

2020-09-11 16:17:02

產(chǎn)品定價AI人工智能

2019-11-01 09:30:21

AI 數(shù)據(jù)人工智能

2016-11-28 11:19:48

術(shù)語神秘

2015-10-23 09:34:16

2015-10-21 13:17:50

2024-03-14 12:09:59

火山引擎公共云

2016-03-03 17:42:10

DockerDCOS

2019-12-25 10:45:30

Java悲觀鎖

2019-12-19 17:00:01

Java線程

2020-10-13 15:20:09

人工智能技術(shù)就業(yè)

2022-07-28 10:39:50

OpenApiSwaggerSpringDoc

2024-08-01 17:34:56

Promiseaxios請求

2024-04-26 09:03:31

Node.jsCurrent發(fā)布版

2021-10-19 09:21:08

AI人類工具
點贊
收藏

51CTO技術(shù)棧公眾號