导读:在智能化时代,大模型不只是金融服务降本增效的“工具”,更是发展新质生产力的重要引擎,是驱动金融变革的关键力量

作者|李伟「中国人民银行科技司司长」
文章|《中国金融》2025年第9期
以史为鉴,准确把握大模型发展带来的战略机遇
人工智能技术发展的规律分析。纵观历史,人工智能技术发展伴随着算法、算力、数据三要素的交替演进、协同作用,也是技术与应用相互促进、螺旋迭代的过程。深刻认识人工智能技术发展规律,对于把握智能化时代战略机遇具有重要意义。第一,算法是人工智能技术发展的基础。自人工智能概念被提出以来,算法研究始终处于学术探索的核心地位。这是因为算法从理论上决定了人工智能技术发展的上限和空间,算法存在缺陷则人工智能技术发展势头可能被遏制,算法实现突破则人工智能技术可能迎来新的发展机遇。例如,1957年弗兰克·罗森布拉特发明感知机,神经网络算法便已萌芽,但因马文·明斯基证明单层感知机无法解决非线性分类问题使神经网络研究陷入沉寂。直到深度学习理论被提出,通过无监督预训练缓解梯度消失问题,才为后续深层神经网络发展铺平道路。第二,算力和数据是人工智能技术发展的“土壤”和“肥料”。算法虽从理论上奠定了人工智能技术发展的基础,却只是种下了一粒“种子”,没有充足的算力“土壤”和数据“肥料”,也难以生根发芽、开花结果。例如,深度学习理论刚被提出时没有引起很大的反响,原因就是算力、数据条件不具备。随着互联网发展使数据井喷式增长、智能芯片逐步成熟使算力跨越式突破,2012年杰弗里·辛顿的团队基于深度学习算法训练出的模型,在imagenet视觉识别挑战赛中一举夺魁,才让深度学习从众多机器学习算法中脱颖而出。第三,应用是检验人工智能技术发展成效的标准。应用实践是检验技术发展成效的“试金石”,能否落地应用是影响人工智能技术发展兴衰成败的关键因素。20世纪八九十年代,专家系统兴起是因为它让人们看到人工智能技术落地应用的希望,初步解决了人工智能“能不能用”的问题。2020年以来,gpt系列模型开启新一轮的人工智能热潮,是因为其大幅提升了模型性能和应用边界,解决了人工智能“好不好用”的问题。2025年春节以来,deepseek引起广泛关注,是因为它通过算法架构和工程优化,大幅降低了大模型应用门槛,解决了人工智能“用不用得起”的问题。
未雨绸缪,充分认识大模型应用潜在的风险挑战
算法模型问题较为突出。一是模型幻觉问题。受训练数据偏差、算法内在缺陷等因素影响,大模型可能生成看似合理、实则与常识或事实相悖的内容,且推理增强模型因推理复杂性可能导致幻觉问题更加突出。二是模型共振问题。若金融机构普遍采用相同大模型,模型同质化可能导致“羊群效应”和市场共振,进而引发跨机构、跨市场的连锁反应,增加顺周期性金融风险。三是算法黑箱问题。由于模型规模庞大、工作原理复杂,大模型极大增加了对模型运行机理、输出结果的解读难度,进一步加剧了算法黑箱问题。虽然推理增强模型可输出推理过程,但可解释性仍然有限,难以完全满足金融应用中对模型透明度和可靠性的要求。
智能算力紧缺形势严峻。大模型的训练和推理高度依赖智能算力的支撑,deepseek的技术突破虽大幅降低了大模型应用门槛,但随着大量使用者涌入,总体算力需求可能“不降反增”,引发“杰文斯悖论”。我国金融领域机构数量众多、场景复杂多样、用户基数庞大,大模型金融应用的算力需求将不断攀升,智能算力供给结构性短缺、芯片配套生态不够完善等问题或将更为突出。
数据安全风险不容忽视。训练数据是培育大模型的原材料,训练数据的优劣决定大模型质量。若训练数据被恶意“投毒”、含有虚假内容,大模型可能产生决策错误;训练数据存在违法、偏激等有害信息,大模型可能产生扭曲的价值观。此外,金融数据高度敏感,部分数据可能涉及金融用户隐私,在大模型研发与应用过程中,数据脱敏不当、非授权访问、诱导交互等可能引发数据泄露风险。
科技伦理隐患成为挑战。若大模型在训练对齐过程中缺乏伦理约束,或受到不当奖励机制诱导,可能在性别、种族、地域等方面存在偏见,生成有违伦理道德的歧视性、不公平的内容。例如,基于大模型将不同用户群体“标签化”并实施差别定价,损害金融公平性和普惠性;或违反金融消费者适当性原则,构建信息茧房,扰乱金融市场竞争秩序、阻碍消费者自主选择。
注重实效,系统推进金融机构数字化、智能化转型
构建适配转型的顶层设计。在战略规划方面,金融机构要加强自上而下的统筹谋划,主动将数智化转型融入金融强国、数字中国建设大局,制定全方位数智化转型战略规划,明确实施路线图和时间表,优化转型成效评价与激励体系,营造支持智能化创新的良性氛围。在组织机制方面,要加快构建企业级数智化转型统筹协调机制,建立“一把手”负责制,探索打造业技融合、市场导向、创新驱动的敏捷化组织架构,强化前中后台协同、上下左右联动和业务开发运维一体化,为金融数智化转型提供组织保障。在技术架构方面,要探索构建兼容异构算力、云边端协同的智能算力底座,建设涵盖脱敏、清洗、标注、评估、质量管理和安全保护的大模型数据治理体系,打造兼容不同模型架构、支持多元模型协同调度和模块化供给的智能中台,为金融数智化转型筑牢技术基础。在人才培养方面,要加强与研究机构、高等院校的对接合作,通过专项培训、交流学习、联合实践等方式,加快培育懂ai技术、知业务、会管理的复合型人才,营造持续学习和鼓励创新氛围,全方位提升全体员工的智能素养。
探索人机协同的经营模式。随着大模型技术持续创新突破,特别是智能体逐步成熟,人工智能既可像人一样思考、分析、规划、记忆,又能结合rpa等技术执行具体业务流程,有望成为既有“大脑”又有“手脚”的“数字员工”,这将给企业经营模式带来深刻变革。一是要应时而变。金融机构要稳妥推动经营模式从经验驱动、人力驱动向数据驱动、人机协同转型,逐步实现工作方式从“人使用ai”“ai辅助人”向“人与ai协作”“人监督ai执行”转变,着力提升经营管理智能化水平。二是要智圆行方。充分发挥人工智能的高效性和人的创造性,让大模型处理事务性、操作性、流程化、标准化的工作,让人从事更具战略性、创新性和价值性的业务,实现人工智能与人的优势互补。同时,要建立风险管理与监督机制,确保最终决策由人作出、关键环节有人监督干预,实现大模型应用风险可控。三是要以人为本。妥善处理好人与人工智能之间的关系,让人工智能服务“人”,而不是替代“人”、压榨“人”。对外服务要以用户为中心,从增强服务普惠性、保护用户权益、维护金融公平的角度来设计使用大模型;对内管理要以员工为中心,将大模型用于解放生产力、提高劳动生产率和提升员工幸福感。
坚持集约高效的实施路径。当前,通用基础大模型缺乏对金融专业知识的系统掌握,未经过金融业务的实战训练,距离金融应用存在“知识鸿沟”,直接应用于专业性强的复杂金融场景往往幻觉率较高、难以满足业务需要。因此,打造金融大模型、提升大模型金融知识水平是推进大模型金融应用的必由之路,这需要在算力、数据、人才等方面投入大量资源,需要我们坚持集约化的发展路径。大型金融机构要勇于创新、赋能行业,强化金融领域数据标注和知识挖掘,综合运用二次训练、微调、知识蒸馏等手段,构建掌握金融知识、适用不同场景、适配不同任务的金融大模型矩阵,探索多元模型“取长补短”的协同作业模式,更好满足金融业务场景多样化应用需求,在深化提升大模型应用能力的同时发挥引领带动作用,助力提升行业整体智能化水平。中小金融机构要以我为主、善借外力,可依托成熟框架,运用提示工程、检索增强生成等技术对通用基础大模型进行轻量化适配;也可在依法合规、保障安全的前提下,探索利用公共智算中心、超算中心等外部算力资源,叠加本地数据集开展模型训练和微调,降低算力设施建设和模型训练成本。同时,可充分发挥金融基础设施、产业联盟、行业协会等的纽带作用,按照“共建共享共用”理念,整合产学研用各方资源,探索建设“人工智能+”金融行业应用支撑能力,通过共建联合创新实验室、算力基础设施、金融语料库和数据集等方式,让广大中小金融机构更好搭上智能化发展快车。
与时俱进,着力提升金融数字化、智能化治理水平
深化创新监管工具运用。大模型金融应用是向未知领域的探索,应用得当可为金融创新注入新动能,应用不当也可能引发新风险。我们要秉持技术中性的原则,坚持包容审慎的监管理念,深化金融科技创新监管工具的运用,着力营造“允许出错、及时纠错、快速改错”的创新氛围,以法律法规和监管规则为准绳划定刚性底线,运用信息披露、公众监督等方式设置柔性边界,支持金融机构、科技公司在风险可控的真实市场环境中先行先试,持续打磨完善基于大模型的优质金融产品,切实提升金融守正创新能力,有效破解大模型金融应用治理的“科林格里奇”困境。
发挥标准规范引领作用。2024年9月,我国在联合国会议上提出《人工智能能力建设普惠计划》,推动建立人工智能安全风险评估的框架和标准。在此之前,中国人民银行发布智能算法金融应用信息披露指南和评价规范,引导金融机构及时披露智能算法决策机理、运行逻辑和潜在风险,强化智能算法全流程评价与管控。下一步,将加快制定大模型技术金融应用安全规范,按照分级分类管理思路,明确大模型金融应用的安全框架,根据场景类型提出分级安全要求,筑牢防范人工智能技术风险向金融领域传导的“安全网”。
加强监管科技能力建设。大模型应用的风险隐蔽性更强、复杂度更高,给金融监管带来新挑战。监管手段也要与时俱进,我们要强化监管科技应用,加快健全自主可控安全高效的金融基础设施体系,充分发挥金融基础设施的广泛联接性和业务中枢作用,积极探索利用大模型技术提升金融管理能力,增强对大模型应用的监管效能。例如,前期人民银行组织建设金融业网络安全态势感知平台,加强跨机构、跨行业风险情报共享和信息互通,持续提升传统网络安全风险监测预警能力。下一步,将探索建设金融领域人工智能应用风险监控平台,进一步强化大模型应用风险的多渠道态势感知、综合性分析评估和差异化应对处置能力,提升大模型应用的数字化监管水平。
强化人工智能伦理治理。当前,强化人工智能特别是大模型技术的伦理治理,已成为国际社会广泛共识。中国等28个国家和欧盟共同发布《布莱切利宣言》,倡导以负责任的方式设计、开发和使用人工智能技术。前期,人民银行发布《金融领域科技伦理指引》,明确建立负责任金融科技伦理治理体系的基本要求和行为准则。下一步,要着力构建协同共治的伦理治理格局。金融机构要切实履行金融服务主体责任,对金融消费者负责,探索建立企业级科技伦理审查和评估机制,依法合规将大模型运用于开展守正向善、公平普惠的金融创新;科技公司要对合作的金融机构负责,主动研判、及时化解科技活动中存在的伦理风险,保障研发的大模型产品安全可靠、风险可控,切实做到有技术不任性、有数据不滥用;自律组织要发挥行业自律作用,出台更多有影响力的伦理治理倡议和自律公约,探索可落地的大模型伦理评估框架和工具,助力营造负责任的人工智能创新应用环境;从业人员要恪守职业道德底线,提高人工智能伦理风险认识,自觉提升自身道德水平和伦理素养。■
(实习编辑 韩明书)