導讀:在智能化時代,大模型不只是金融服務降本增效的“工具”,更是發展新質生產力的重要引擎,是驅動金融變革的關鍵力量

作者|李偉「中國人民銀行科技司司長」
文章|《中國金融》2025年第9期
以史為鑒,準確把握大模型發展帶來的戰略機遇
人工智能技術發展的規律分析。縱觀歷史,人工智能技術發展伴隨着算法、算力、數據三要素的交替演進、協同作用,也是技術與應用相互促進、螺旋迭代的過程。深刻認識人工智能技術發展規律,對於把握智能化時代戰略機遇具有重要意義。第一,算法是人工智能技術發展的基礎。自人工智能概念被提出以來,算法研究始終處於學術探索的核心地位。這是因為算法從理論上決定了人工智能技術發展的上限和空間,算法存在缺陷則人工智能技術發展勢頭可能被遏制,算法實現突破則人工智能技術可能迎來新的發展機遇。例如,1957年弗蘭克·羅森布拉特發明感知機,神經網絡算法便已萌芽,但因馬文·明斯基證明單層感知機無法解決非線性分類問題使神經網絡研究陷入沉寂。直到深度學習理論被提出,通過無監督預訓練緩解梯度消失問題,才為後續深層神經網絡發展鋪平道路。第二,算力和數據是人工智能技術發展的“土壤”和“肥料”。算法雖從理論上奠定了人工智能技術發展的基礎,卻只是種下了一粒“種子”,沒有充足的算力“土壤”和數據“肥料”,也難以生根發芽、開花結果。例如,深度學習理論剛被提出時沒有引起很大的反響,原因就是算力、數據條件不具備。隨着互聯網發展使數據井噴式增長、智能芯片逐步成熟使算力跨越式突破,2012年傑弗里·辛頓的團隊基於深度學習算法訓練出的模型,在imagenet視覺識別挑戰賽中一舉奪魁,才讓深度學習從眾多機器學習算法中脫穎而出。第三,應用是檢驗人工智能技術發展成效的標準。應用實踐是檢驗技術發展成效的“試金石”,能否落地應用是影響人工智能技術發展興衰成敗的關鍵因素。20世紀八九十年代,專家系統興起是因為它讓人們看到人工智能技術落地應用的希望,初步解決了人工智能“能不能用”的問題。2020年以來,gpt系列模型開啟新一輪的人工智能熱潮,是因為其大幅提升了模型性能和應用邊界,解決了人工智能“好不好用”的問題。2025年春節以來,deepseek引起廣泛關注,是因為它通過算法架構和工程優化,大幅降低了大模型應用門檻,解決了人工智能“用不用得起”的問題。
未雨綢繆,充分認識大模型應用潛在的風險挑戰
算法模型問題較為突出。一是模型幻覺問題。受訓練數據偏差、算法內在缺陷等因素影響,大模型可能生成看似合理、實則與常識或事實相悖的內容,且推理增強模型因推理複雜性可能導致幻覺問題更加突出。二是模型共振問題。若金融機構普遍採用相同大模型,模型同質化可能導致“羊群效應”和市場共振,進而引發跨機構、跨市場的連鎖反應,增加順周期性金融風險。三是算法黑箱問題。由於模型規模龐大、工作原理複雜,大模型極大增加了對模型運行機理、輸出結果的解讀難度,進一步加劇了算法黑箱問題。雖然推理增強模型可輸出推理過程,但可解釋性仍然有限,難以完全滿足金融應用中對模型透明度和可靠性的要求。
智能算力緊缺形勢嚴峻。大模型的訓練和推理高度依賴智能算力的支撐,deepseek的技術突破雖大幅降低了大模型應用門檻,但隨着大量使用者湧入,總體算力需求可能“不降反增”,引發“傑文斯悖論”。我國金融領域機構數量眾多、場景複雜多樣、用戶基數龐大,大模型金融應用的算力需求將不斷攀升,智能算力供給結構性短缺、芯片配套生態不夠完善等問題或將更為突出。
數據安全風險不容忽視。訓練數據是培育大模型的原材料,訓練數據的優劣決定大模型質量。若訓練數據被惡意“投毒”、含有虛假內容,大模型可能產生決策錯誤;訓練數據存在違法、偏激等有害信息,大模型可能產生扭曲的價值觀。此外,金融數據高度敏感,部分數據可能涉及金融用戶隱私,在大模型研發與應用過程中,數據脫敏不當、非授權訪問、誘導交互等可能引發數據泄露風險。
科技倫理隱患成為挑戰。若大模型在訓練對齊過程中缺乏倫理約束,或受到不當獎勵機制誘導,可能在性別、種族、地域等方面存在偏見,生成有違倫理道德的歧視性、不公平的內容。例如,基於大模型將不同用戶群體“標籤化”並實施差別定價,損害金融公平性和普惠性;或違反金融消費者適當性原則,構建信息繭房,擾亂金融市場競爭秩序、阻礙消費者自主選擇。
注重實效,系統推進金融機構數字化、智能化轉型
構建適配轉型的頂層設計。在戰略規劃方面,金融機構要加強自上而下的統籌謀劃,主動將數智化轉型融入金融強國、數字中國建設大局,制定全方位數智化轉型戰略規劃,明確實施路線圖和時間表,優化轉型成效評價與激勵體系,營造支持智能化創新的良性氛圍。在組織機制方面,要加快構建企業級數智化轉型統籌協調機制,建立“一把手”負責制,探索打造業技融合、市場導向、創新驅動的敏捷化組織架構,強化前中後台協同、上下左右聯動和業務開發運維一體化,為金融數智化轉型提供組織保障。在技術架構方面,要探索構建兼容異構算力、雲邊端協同的智能算力底座,建設涵蓋脫敏、清洗、標註、評估、質量管理和安全保護的大模型數據治理體系,打造兼容不同模型架構、支持多元模型協同調度和模塊化供給的智能中台,為金融數智化轉型築牢技術基礎。在人才培養方面,要加強與研究機構、高等院校的對接合作,通過專項培訓、交流學習、聯合實踐等方式,加快培育懂ai技術、知業務、會管理的複合型人才,營造持續學習和鼓勵創新氛圍,全方位提升全體員工的智能素養。
探索人機協同的經營模式。隨着大模型技術持續創新突破,特別是智能體逐步成熟,人工智能既可像人一樣思考、分析、規劃、記憶,又能結合rpa等技術執行具體業務流程,有望成為既有“大腦”又有“手腳”的“數字員工”,這將給企業經營模式帶來深刻變革。一是要應時而變。金融機構要穩妥推動經營模式從經驗驅動、人力驅動向數據驅動、人機協同轉型,逐步實現工作方式從“人使用ai”“ai輔助人”向“人與ai協作”“人監督ai執行”轉變,着力提升經營管理智能化水平。二是要智圓行方。充分發揮人工智能的高效性和人的創造性,讓大模型處理事務性、操作性、流程化、標準化的工作,讓人從事更具戰略性、創新性和價值性的業務,實現人工智能與人的優勢互補。同時,要建立風險管理與監督機制,確保最終決策由人作出、關鍵環節有人監督干預,實現大模型應用風險可控。三是要以人為本。妥善處理好人與人工智能之間的關係,讓人工智能服務“人”,而不是替代“人”、壓榨“人”。對外服務要以用戶為中心,從增強服務普惠性、保護用戶權益、維護金融公平的角度來設計使用大模型;對內管理要以員工為中心,將大模型用於解放生產力、提高勞動生產率和提升員工幸福感。
堅持集約高效的實施路徑。當前,通用基礎大模型缺乏對金融專業知識的系統掌握,未經過金融業務的實戰訓練,距離金融應用存在“知識鴻溝”,直接應用於專業性強的複雜金融場景往往幻覺率較高、難以滿足業務需要。因此,打造金融大模型、提升大模型金融知識水平是推進大模型金融應用的必由之路,這需要在算力、數據、人才等方面投入大量資源,需要我們堅持集約化的發展路徑。大型金融機構要勇於創新、賦能行業,強化金融領域數據標註和知識挖掘,綜合運用二次訓練、微調、知識蒸餾等手段,構建掌握金融知識、適用不同場景、適配不同任務的金融大模型矩陣,探索多元模型“取長補短”的協同作業模式,更好滿足金融業務場景多樣化應用需求,在深化提升大模型應用能力的同時發揮引領帶動作用,助力提升行業整體智能化水平。中小金融機構要以我為主、善借外力,可依託成熟框架,運用提示工程、檢索增強生成等技術對通用基礎大模型進行輕量化適配;也可在依法合規、保障安全的前提下,探索利用公共智算中心、超算中心等外部算力資源,疊加本地數據集開展模型訓練和微調,降低算力設施建設和模型訓練成本。同時,可充分發揮金融基礎設施、產業聯盟、行業協會等的紐帶作用,按照“共建共享共用”理念,整合產學研用各方資源,探索建設“人工智能+”金融行業應用支撐能力,通過共建聯合創新實驗室、算力基礎設施、金融語料庫和數據集等方式,讓廣大中小金融機構更好搭上智能化發展快車。
與時俱進,着力提升金融數字化、智能化治理水平
深化創新監管工具運用。大模型金融應用是向未知領域的探索,應用得當可為金融創新注入新動能,應用不當也可能引發新風險。我們要秉持技術中性的原則,堅持包容審慎的監管理念,深化金融科技創新監管工具的運用,着力營造“允許出錯、及時糾錯、快速改錯”的創新氛圍,以法律法規和監管規則為準繩劃定剛性底線,運用信息披露、公眾監督等方式設置柔性邊界,支持金融機構、科技公司在風險可控的真實市場環境中先行先試,持續打磨完善基於大模型的優質金融產品,切實提升金融守正創新能力,有效破解大模型金融應用治理的“科林格里奇”困境。
發揮標準規範引領作用。2024年9月,我國在聯合國會議上提出《人工智能能力建設普惠計劃》,推動建立人工智能安全風險評估的框架和標準。在此之前,中國人民銀行發布智能算法金融應用信息披露指南和評價規範,引導金融機構及時披露智能算法決策機理、運行邏輯和潛在風險,強化智能算法全流程評價與管控。下一步,將加快制定大模型技術金融應用安全規範,按照分級分類管理思路,明確大模型金融應用的安全框架,根據場景類型提出分級安全要求,築牢防範人工智能技術風險向金融領域傳導的“安全網”。
加強監管科技能力建設。大模型應用的風險隱蔽性更強、複雜度更高,給金融監管帶來新挑戰。監管手段也要與時俱進,我們要強化監管科技應用,加快健全自主可控安全高效的金融基礎設施體系,充分發揮金融基礎設施的廣泛聯接性和業務中樞作用,積極探索利用大模型技術提升金融管理能力,增強對大模型應用的監管效能。例如,前期人民銀行組織建設金融業網絡安全態勢感知平台,加強跨機構、跨行業風險情報共享和信息互通,持續提升傳統網絡安全風險監測預警能力。下一步,將探索建設金融領域人工智能應用風險監控平台,進一步強化大模型應用風險的多渠道態勢感知、綜合性分析評估和差異化應對處置能力,提升大模型應用的數字化監管水平。
強化人工智能倫理治理。當前,強化人工智能特別是大模型技術的倫理治理,已成為國際社會廣泛共識。中國等28個國家和歐盟共同發布《布萊切利宣言》,倡導以負責任的方式設計、開發和使用人工智能技術。前期,人民銀行發布《金融領域科技倫理指引》,明確建立負責任金融科技倫理治理體系的基本要求和行為準則。下一步,要着力構建協同共治的倫理治理格局。金融機構要切實履行金融服務主體責任,對金融消費者負責,探索建立企業級科技倫理審查和評估機制,依法合規將大模型運用於開展守正向善、公平普惠的金融創新;科技公司要對合作的金融機構負責,主動研判、及時化解科技活動中存在的倫理風險,保障研發的大模型產品安全可靠、風險可控,切實做到有技術不任性、有數據不濫用;自律組織要發揮行業自律作用,出台更多有影響力的倫理治理倡議和自律公約,探索可落地的大模型倫理評估框架和工具,助力營造負責任的人工智能創新應用環境;從業人員要恪守職業道德底線,提高人工智能倫理風險認識,自覺提升自身道德水平和倫理素養。■
(實習編輯 韓明書)