我國科研團隊結合行為實驗與神經影像分析,首次證實多模態大語言模型能自發形成與人類高度相似的物體概念表徵系統。6月9日,相關研究成果在《自然·機器智能》發表。
人類對自然界中的物體進行概念化的認知能力,被視為人類智能的核心。當人們看到「狗」「汽車」或「蘋果」時,不僅能識別它們的尺寸、顏色、形狀等物理特徵,還能理解其功能、情感價值和文化意義。而隨着大語言模型的爆髮式發展,一個根本性問題浮現:這些大模型能否從語言和多模態數據中,發展出與人類相似的物體概念表徵?
傳統人工智能研究聚焦於物體識別準確率,卻很少探討模型是否能真正「理解」物體的含義。「當前人工智能可以區分貓狗圖片,但這種『識別』與人類『理解』貓狗的本質區別仍有待揭示。」論文通訊作者、中國科學院自動化研究所研究員何暉光說。
科研團隊通過分析470萬次行為判斷數據,首次構建了人工智能大模型的「概念地圖」,並從認知神經科學經典理論出發,設計了一套融合計算建模、行為實驗與腦科學的創新範式。從海量大模型行為數據中,他們提取出66個「心智維度」,並賦予語義標籤。這些維度具有高度的可解釋性,且與大腦類別選擇區域的神經活動模式顯著相關。研究還對比了多個模型在行為選擇模式上與人類的一致性。結果顯示,多模態大模型在一致性方面表現更優。該研究表明,大語言模型內部存在着類似人類對現實世界概念的理解,即人工智能的「心智維度」與人類殊途同歸。
來源:北京日報客戶端
記者:劉蘇雅