我国科研团队结合行为实验与神经影像分析,首次证实多模态大语言模型能自发形成与人类高度相似的物体概念表征系统。6月9日,相关研究成果在《自然·机器智能》发表。
人类对自然界中的物体进行概念化的认知能力,被视为人类智能的核心。当人们看到“狗”“汽车”或“苹果”时,不仅能识别它们的尺寸、颜色、形状等物理特征,还能理解其功能、情感价值和文化意义。而随着大语言模型的爆发式发展,一个根本性问题浮现:这些大模型能否从语言和多模态数据中,发展出与人类相似的物体概念表征?
传统人工智能研究聚焦于物体识别准确率,却很少探讨模型是否能真正“理解”物体的含义。“当前人工智能可以区分猫狗图片,但这种‘识别’与人类‘理解’猫狗的本质区别仍有待揭示。”论文通讯作者、中国科学院自动化研究所研究员何晖光说。
科研团队通过分析470万次行为判断数据,首次构建了人工智能大模型的“概念地图”,并从认知神经科学经典理论出发,设计了一套融合计算建模、行为实验与脑科学的创新范式。从海量大模型行为数据中,他们提取出66个“心智维度”,并赋予语义标签。这些维度具有高度的可解释性,且与大脑类别选择区域的神经活动模式显著相关。研究还对比了多个模型在行为选择模式上与人类的一致性。结果显示,多模态大模型在一致性方面表现更优。该研究表明,大语言模型内部存在着类似人类对现实世界概念的理解,即人工智能的“心智维度”与人类殊途同归。
来源:北京日报客户端
记者:刘苏雅