麻省理工最新成果:AI 揭示人腦如何處理語言
作者 | 青蘋果
來源 | 數據實戰(zhàn)派
在過去的幾年里,AI 語言模型已經可以非常出色的處理一些特定任務。其中,最值得注意的是,它們擅長預測文本字符串中的下一個單詞。以搜索引擎和****應用為例,這項技術可以輔助它們進行預測,以獲取你準備輸入的下一個單詞。
最新一代的預測語言模型似乎也學會了一些語言的潛在含義。讓人驚嘆的是,這些模型不僅可以預測下一個單詞,還可以執(zhí)行似乎需要一定理解才能完成的任務,如問答、文檔摘要和故事續(xù)寫。
這些模型旨在優(yōu)化預測文本的特定功能,而非試圖模仿人類大腦如何執(zhí)行這項任務或理解語言。但 MIT 神經科學家的一項新研究表明,這些模型的潛在功能類似于人類大腦中的語言處理中心的功能。
這篇論文寫道:“我們的研究結果表明,預測性人工神經網絡可作為預測語言處理如何在人類神經組織中實施的可行候選假設。這些網絡為一個有前途的研究方向奠定了關鍵基礎,即在集成逆向工程的良性循環(huán)中將自然語言處理的高性能模型與人類語言理解的大規(guī)模神經和行為測量相結合,包括測試模型預測神經和行為的能力,剖析表現最佳的模型以了解哪些組件對高大腦預測性至關重要,利用這些知識開發(fā)更好的模型,并收集新數據以挑戰(zhàn)和限制未來幾代神經上合理的語言處理模型”。
在其他類型的語言任務中,表現良好的計算機模型并未展示出與人類大腦的這種相似性,這為人腦可能會使用下一個單詞預測來驅動語言處理提供了證據。
認知神經科學的 Walter A. Rosenblith 教授 Nancy Kanwisher 說,“模型預測下一個單詞的能力越強,就越符合人類的大腦”。他是 MIT 麥戈文腦科學研究所和大腦、心智和機器中心(CBMM, Brain Research and Center for Brains, Minds, and Machines)的成員,也是這項新研究的作者之一。
“令人驚訝的是,這些模型擬合得如此之好,這也有力地暗示出,也許人類語言系統正在做的就是預測接下來會發(fā)生什么?!?/p>
該研究論文題為“The neural architecture of language: Integrative modeling converges on predictive processing”,已發(fā)表在 Proceedings of the National Academy of Sciences 上。
語言處理的人工神經網絡模型與人類語言處理的比較。實驗測試了不同模型的效果預測人類神經活動(fMRI 和 ECoG)的測量值和語言理解過程中的行為。候選模型范圍從簡單將模型嵌入到更復雜的循環(huán)和變壓器網絡中。刺激范圍從句子到段落再到故事,并且被輸入到模型,以及呈現給人類參與者(視覺或聽覺)。模型的內部表征在三個主要維度上進行評估:預測人類神經表征的能力;以閱讀時間的形式預測人類行為的能力;執(zhí)行下一個詞預測等任務的計算能力。
做預測任務
這種新的、高性能的預測下一個單詞的模型屬于深度神經網絡模型的范疇。這些網絡包含計算“節(jié)點”,它們形成不同強度的連接,以及以規(guī)定的方式在彼此之間傳遞信息的層。
在過去的十年里,科學家們用深度神經網絡創(chuàng)建了視覺模型,可以像靈長類大腦一樣識別物體。MIT 的研究也表明,視覺物體識別模型的潛在功能與靈長類視覺皮層的組織相匹配,盡管這些計算機模型并不是專為模仿大腦而設計的。
在這項新研究中,MIT 研究團隊采用了類似的方法,以比較人腦中的語言處理中心和語言處理模型。
他們分析了 43 種不同的語言模型,涵蓋一些對單詞進行預測優(yōu)化的模型。其中包括 GPT-3(生成式預訓練 Transformer 3),它可以依據給出的提示,生成與人類手動生成相類似的文本。而其他的模型則旨在執(zhí)行不同的語言任務,比如在句子中填空。
由于每個模型都有一串單詞,研究人員測量了構成網絡節(jié)點的活動。
然后者的然后,他們將這些模式與人類大腦中的活動進行了比較,并對執(zhí)行三種語言任務的受試者進行了測量:聽故事、一次讀一個句子,以及每次讀一個單詞的句子。這些人體數據集包括功能性磁共振成像(fMRI, functional magnetic resonance imaging)數據和接受癲癇腦手術患者的顱內皮層腦電圖測量。
結果表明,性能最好的單詞預測模型的活動模式與人腦中的活動模式非常相似。這些相同模型中的活動與人類行為指標高度相關,例如,人們閱讀文本的速度。
Schrimpf 說,“我們發(fā)現,能夠很好地預測神經反應的模型也傾向于以閱讀時間的形式最好地預測人類的行為反應。然后通過下一個單詞預測的模型性能來解釋這兩個問題。這個三角形真的把一切聯系在一起?!?/p>
改變游戲規(guī)則
預測模型(如 GPT-3)的關鍵計算特性之一,是一個稱為正向單向預測 transformer 的元件。這種 transformer 能夠根據之前的序列預測接下來會發(fā)生什么。它的顯著特征在于,可以基于文本中篇幅較大的上下文(數百個單詞)進行預測,而不僅僅是最后幾個單詞。
Tenenbaum 說,科學家還沒有發(fā)現任何與這種處理方式相對應的大腦回路或學習機制。不過,新的發(fā)現與先前提出的假設保持著高度一致,即預測是語言處理的關鍵功能之一。
“語言處理的挑戰(zhàn)之一是它的實時性,”他強調到。“語言輸入進來后,你必須跟上它的節(jié)奏,并且能夠實時理解它的含義?!?/p>
研究人員現在計劃構建這些語言處理模型的變體,以了解其結構的微小變化是如何影響性能表現和適應人類神經數據的能力的。
“對我來說,這個結果改變了游戲規(guī)則,” Fedorenko 說道。“這完全改變了我的研究項目,因為我沒有預料到,在我有生之年,會得到這些計算清晰的模型。這些模型能夠捕捉到足夠多的大腦信息,這樣我們就可以真正利用它們來理解大腦的工作原理?!?/p>
研究人員還計劃嘗試將這些高性能語言模型與 Tenenbaum 實驗室先前開發(fā)的一些計算機模型相結合,這些模型可以執(zhí)行一些其他類型的任務,比如,構建物理世界的感知表征等。
上圖為該研究的主要結論,包括特定的 ANN 語言模型可以預測人類的神經對語言輸入的高精度響應。
Tenenbaum 說,“如果我們能夠理解這些語言模型的作用,以及它們如何與那些更像是做感知和思考的模型相聯系,那么,我們很可能會得到更多關于大腦如何工作的綜合性模型。這可能會讓我們構建出更完善的、性能更佳的 AI 模型。當然,我們也可以更多地了解大腦究竟如何工作,以及通用智能是如何出現的,以豐富過去的知識盲區(qū)。”
*博客內容為網友個人發(fā)布,僅代表博主個人觀點,如有侵權請聯系工作人員刪除。