一項新的研究表明,人類大腦通過逐步過程來理解口語,這與先進的人工智能語言模型的工作原理非常相似。通過記錄聽故事的人的大腦活動,研究人員發現後期的大腦反應與更深層的人工智能係統的反應相匹配。特別是在布羅卡區等著名語言區,這樣的結果對長期存在的基於規則的語言理解概念提出了質疑。並得到最近發布的公共數據集的支持。它提供了一種強大的新方法來研究大腦中意義是如何形成的。
研究發表於 自然交流由希伯來大學的 Ariel Goldstein 博士領導。與合作者包括來自谷歌研究中心的 Mariano Schain 博士以及來自普林斯頓大學的 Uri Hasson 和 Eric Ham 教授。該團隊發現人類理解語音的方式與現代人工智能模型處理文本的方式之間存在意想不到的相似之處。
科學家利用參與者收聽 30 分鐘播客的腦電圖記錄,追踪處理語言時大腦活動的時間和位置。他們發現大腦的結構順序與大規模語言模型(例如 GPT-2 和 Llama 2)的分層設計非常相似。
隨著時間的推移,大腦如何創造意義?
當我們聽某人講話時,大腦不會一下子理解其含義。但每個詞都會經歷不同的階段。相反,戈爾茨坦和他的同事表明,這些步驟隨著時間的推移而發生,其方式反映了人工智能模型處理語言的方式。人工智能中的默認層側重於基本的單詞特徵。而更深層次包括更廣泛的背景、語氣和含義。
人類大腦的活動遵循相同的模式。早期的神經信號對應於人工智能處理的早期階段,而後期的大腦反應則對應於模型的更深層次。這種時間耦合在高級語言領域尤其強烈,例如布羅卡空間,當與更深的人工智能層相關時,響應峰值會晚一些。
戈德斯坦博士說:“最讓我們驚訝的是,大腦的時間意義展開與大語言模型內的變化序列有多緊密地匹配。雖然這些系統的構建方式非常不同,但兩者似乎都匯聚在一步步走向理解的類似積累上。”
為什麼這些發現很重要?
研究表明人工智能不僅僅可以生成文本。它還可以幫助科學家更好地理解人腦如何創造意義。多年來,人們認為語言主要依賴於固定的符號和嚴格的等級制度。這些結果挑戰了這種觀點,並指出了更靈活的統計過程。其含義將通過上下文逐漸顯現
研究人員還測試了傳統語言元素,例如音素和語素。這些經典特徵並不能解釋實時的大腦活動。包括人工智能模型生成的上下文表徵,這支持了這樣的觀點:大腦依賴於流動的上下文而不是嚴格的語言構建塊。
語言神經科學的新資源。
為了幫助推動該領域向前發展,該團隊向公眾發布了一套完整的神經記錄和語言功能。這個開放數據集允許世界各地的研究人員比較語言理解理論。並開發更能反映人類思維運作方式的計算模型。










