人工智慧正快速進化,但它依然有記憶障礙。不是記不住,而是「遺忘得太快」。這不是笑話,而是一個根本性問題。
專業術語叫「災難性遺忘」(catastrophic forgetting)。指的是神經網路在學習新任務時,會突然忘掉之前學會的東西。就像剛學完英語單詞,一轉頭去背法語,結果英語全忘了。
這在AI領域是個大坑,尤其在「增量學習」「終身學習」中,一旦模型參數覆蓋舊任務,那些寶貴的「知識」就會消失。
人腦不會這樣。因為人腦有「元可塑性」(metaplasticity)——神經元之間的突觸連接強度變化,是有層次、有機制的,不會無限放大某次刺激,也不會輕易抹除歷史記憶。
科學家試圖讓AI模仿人腦,於是,突觸就成了核心。突觸的硬體等價物,是「憶阻器」(memristor)。不是新東西。1971年,惠普實驗室提出了它的概念,但直到2008年才第一次實現。
現在,一支來自德國尤利希研究中心(Forschungszentrum Jülich)的團隊,拿出了一種全新的憶阻器。主導者叫Ilia Valov,是彼得·格林貝格研究所(PGI-7)的領軍人物。
這一次的不同,是他們真的找到了第三種機制。
前面兩種是經典的ECM和VCM。ECM,全稱electrochemical metallization,靠金屬絲橋導通——在電極之間生長一根「金屬細絲」,改變電阻,切斷就等於清零。特點是切換快、電壓低,但壽命短、不穩定。VCM,全稱valence change mechanism,不是靠金屬,而是靠氧離子的遷移,改變電極-電解質之間的勢壘(Schottky barrier)。更穩,但需要高電壓。
這兩個方向打了十幾年,商業化進展卻一直卡著。原因不複雜:失敗率高、工藝複雜、熱穩定性差、壽命短。
Valov團隊幹了一件過去被認為「不可能」的事:融合兩者優點,繞開各自缺陷。
他們沒有用金屬絲橋,也沒有隻靠氧離子,而是引入「金屬氧化物絲橋」,即氧和鉭離子共同形成的複合導電通道。它不會徹底溶解,也不會徹底導通。它總是「部分存在」,靠化學態的變化控制電阻。這種機制有個新名字:FCM(filament conductivity modification)。
簡單說,導電絲橋從「有」變成「更有」或「更少」,而不是「有」與「無」的二元切換。這就從根本上提升了記憶的穩定性和可控性。最關鍵一點:它天然支持模擬和數字雙模運作。
傳統計算機是數字式,0和1;而人腦是模擬式,可以有0.5、0.78、0.923。現在這枚憶阻器兼容兩者。數字處理速度快,模擬處理細膩豐富。Valov說,這正是大腦「不會突然遺忘」的關鍵機制。
不僅如此,這種憶阻器還有其他優點:一是電壓窗口更寬。意思是,在更大的電壓範圍內,它依然穩定工作,不容易燒毀。二是熱穩定性更高。熱對納米結構破壞大,以前的憶阻器燒得快、壞得多。三是工藝容錯率更強。結構更穩、材料不那麼敏感,意味著大規模量產成為可能。
這些性能參數,在以往的ECM和VCM中幾乎是對立的。
而今,在FCM中達成了統一。團隊已經把這個憶阻器集成進了一個人工神經網路模擬中,進行了圖像識別訓練,結果顯示準確率高、抗遺忘能力強。
而且是在沒有額外反向補償機制的情況下實現的。
這點非常關鍵。過去為了解決災難性遺忘,研究人員只能引入一堆「救火」機制,比如正則化、回放機制、參數凍結等等。每引入一個新機制,系統複雜度就指數上升,運算資源就爆炸。
而FCM這種機制,是「物理層面」的優化,從底層就減輕了「遺忘」的概率。一句話:這是在AI的神經突觸上動刀了。
我們可以預見,這會對「計算-存儲合一」(computation-in-memory)的架構帶來直接衝擊。傳統晶元架構是馮·諾依曼式的,計算和存儲是分開的:CPU負責計算,存儲器(如RAM)負責記憶。每一次讀寫數據,都需要頻繁傳輸,能耗高、延遲大。
憶阻器打破這一結構。它可以在同一個位置上既存儲,又計算。信息不必來回跑,從根本上改變計算模式。
Valov團隊的這項成果,已發表在《Nature Communications》。
一個細節值得注意:這是德國與中國研究人員的合作項目。中德科學合作一直很密切,而憶阻器這個領域,中國是有強勁科研積累的。2017年清華團隊就提出了類似「可塑憶阻突觸」結構;中科院多家單位也在攻克高集成度、可重複控制的憶阻器結構。
在當前美西方「卡脖子」語境下,中歐科研共同突破前沿材料,是科技全球化少有的清流。
當然,話說回來,這項成果離大規模產業化還有路要走。首先,這種新機制的批量製造工藝、良率、封裝成本還需要優化。其次,它需要全新的晶元設計生態。換句話說,現在的EDA工具鏈根本沒準備好迎接「憶阻器-原生晶元」。再往後,AI模型本身也要跟進適配。模型結構、參數分布方式,必須基於硬體特點做底層修改。
但至少現在有了「硬體級」的可能性。