愛伊米

它會推動更強AI到來?時序記憶“交響樂”令人“腦洞大開”

大腦對於時序工作記憶有著特殊編碼機制,不僅每個步驟的內容要被記住,還不能混淆時間上的先後順序。

當我們記憶一連串的數字、動作、聲音等資訊時,我們的大腦進行著如此有趣的活動:在短短几秒鐘內,一群細胞根據輸入的資訊組成帶有時間戳的“抽屜”,將這些資訊依據輸入的先後順序儲存下來。

它會推動更強AI到來?時序記憶“交響樂”令人“腦洞大開”

▲論文主要作者王立平、閔斌、胡沛烑、謝洋(從左至右)在討論課題

這些記憶“抽屜”中的資訊,還能根據需要被重新呼叫、組合。神經元這種分工合作方式,就像一支交響樂隊協同演奏出時序記憶的交響樂。這無疑為理解大腦的認知功能帶來了一些新的啟示。於是,記者與論文主要作者之間,有了下面這些“腦洞大開”的問答(Q&A)。

Q:有的人聽一遍歌就會唱,看一段舞就會跳,這部分人群的序列工作記憶能力是不是特別強?

A:

實際上,很難說有人天生能做到一遍就學會歌曲或舞蹈這樣複雜的序列。這背後往往是有足夠的相關積累,使得有些人能夠快速地建立新序列與已經掌握的序列模式之間的關聯,或是將新的序列簡化成更概括的抽象結構。

簡單來說,大腦的序列工作記憶容量是有限的,一般情況下只能同時記住四五個不同的內容。當然,記憶容量越大,序列記憶能力確實會更強,但這並非序列工作記憶能力差別的主要來源。

要記住較長的序列,更重要的可能是去嘗試提取序列中的抽象規則,用序列中元素的抽象關係來幫助壓縮資訊,這樣序列記憶能力才會有顯著提升。

比如,“5 4 7 3 3 7 4 5”這樣一串數字,如果直接一個個數字來記的話,可能超過了我們的記憶容量,但如果我們發現了其中對稱的抽象關係,就能輕鬆記住。實際上,我們在實驗室也在訓練猴子做這些任務的簡化版本,期望能從神經元層面探索相關機制。

它會推動更強AI到來?時序記憶“交響樂”令人“腦洞大開”

Q:有些人在某方面的序列工作記憶能力突出,這背後有沒有先天的生理基礎?這種能力可否後天訓練獲得?

A:

雖然目前在序列記憶的專項訓練方面還沒有專門的研究,但有關工作記憶訓練的研究已經有比較長的歷史了。雖然目前在序列記憶的專項訓練方面還沒有專門的研究,但有關工作記憶訓練的研究已經有比較長的歷史了。

工作記憶的訓練往往是透過練習一些特定的認知任務來完成。比如,我們可以設計一個類似本研究的空間序列記憶任務,但螢幕上依次閃現的點的數量可以不止三個,而是隨著訓練難度的加大而增加。

根據相關研究,進行過類似工作記憶訓練的人群,在相關任務中的表現往往會有顯著提升。例如,在用n-back任務進行工作記憶訓練的人群中,很多人能夠輕鬆完成10-back以上的任務,即記住10個以上的資訊。

但是,現在學術界的主流觀點是,成年人進行工作記憶訓練所獲得的成效很難有遷移效果。因此,就算我們在記憶空間序列任務上能夠記住長度為10以上的序列,我們在記憶與語言相關的序列時,工作記憶表現並不會有顯著提升。

所以,工作記憶確實是可以透過訓練提高的,但訓練效果一般只會侷限於所訓練的任務和極其類似的任務。一些更偏門的記憶訓練,如記憶撲克牌組之類,遷移效果則更加有限。

目前為止,科學家還未能找到可顯著提高總體工作記憶容量的訓練方法。如果人們希望能更高效地處理和記憶某類序列資訊,最好的方法還是集中對該任務進行訓練,或者對該類序列積累更多的知識和經驗,以便快速提取其中的抽象規則。

Q:大腦這種將資訊先進行“降維”儲存,再加以應用、組織、處理的方式,對於人工智慧的發展有何借鑑意義?

A:

這項研究的一大創新之處,就是對神經元在群體水平上進行分析,從而研究大腦的高階認知功能。其中的一個重要發現是,序列中的符號資訊可以在神經網路中以一種解耦的方式進行表徵。

我們每個人都具有符號運算的能力,這說明大腦神經網路是可以做符號運算的。但大腦究竟怎樣表徵符號資訊、進行符號運算的呢?過往研究還沒有弄明白,因此存在很多爭議。

這次我們的研究發現,符號表徵是可以轉變成神經表徵,並保持其原有幾何結構的。如果找到了符號在神經網路中表徵的可能方式,則意味著可以為人工智慧領域“符號主義”與“連線主義”兩大學派的融合找到一些契合點。在過往發展歷程中,這兩大學派相對獨立發展,一直沒有找到合適的相容方式。近年來,越來越多的研究者開始關注兩者的結合,這可能是實現通用人工智慧的重要方向。

Q:如果符號在神經網路中可以進行運算,將會帶來什麼?

A:

如果解決了符號在神經網路中的表徵問題,那麼就有可能在神經網路中更自然、更高效地實現符號運算。這意味著人工智慧可能從目前模仿人的“快思維”,進入到模擬“慢思維”的階段。

神經網路具有可學習、可程式設計的特性,這是符號系統所缺乏的。但神經網路在與下游互動時,卻存在“黑盒”現象。這是因為我們目前還不是很清楚神經網路的工作機理,對於它哪些能做、哪些不能做,還無法明確其邊界。我們的研究可以為探究“神經網路黑盒”的可解釋性提供一些見解。

如果這個大難題得以解決,那麼人類就可能將人工智慧應用從現在的“皮毛”推向更深層。比如,有人質疑無人自動駕駛的安全性,一個重要的原因是人工智慧很容易被影象所欺騙。這其實是因為我們還不瞭解人到底對符號資訊是如何做決策的。如果有基於符號的神經網路的加入,或能幫助自動駕駛系統更好地理解規則,使系統做出更接近於人的判斷,從而真正提高自動駕駛系統的安全性。

作者:許琦敏

圖片:受訪者提供

*文匯獨家稿件,轉載請註明出處。