
「隨著deepseek大模型的廣泛應用,安全的重要性也日益凸顯。」全國政協委員、360集團創始人周鴻禕認為,大模型帶來的安全問題可以通過「以模製模」解決——用安全大模型來應對人工智慧產生的安全問題,為數字世界構建安全底座。
deepseek-r1兼具開源、透明、免費等特質,適合在政府與企業開展私有化部署,推進「數轉智改」。「一旦部署在政府、企業內部的基座模型、知識庫或智能體中任一環節出現安全隱患,都極有可能誘發整個生產環境爆發系統性風險。」周鴻禕建議,相關部門及時出台配套政策措施,鼓勵具備「安全+人工智慧」完整解決方案的鏈主企業,針對人工智慧應用所涉及的基座模型、知識庫、智能體等安全問題,「以模製模」,將安全要素深度嵌入人工智慧應用全流程。
具體而言,基座模型層面的安全問題主要是大模型產生幻覺的問題,「所謂幻覺是指大模型有時會編造出看起來合理或可信的信息,令人真假難辨。但沒有幻覺的大模型不聰明,這是把雙刃劍。」周鴻禕認為,這些問題可以通過安全大模型連接知識庫來校正。
客戶端層面的安全問題則更多的是指,人們的許多工作,會和公司里的大模型交流互動,「要加大風險防控,防止來自客戶端的安全攻擊。」
當大模型的應用催生出更多智能體,人們將自己的一部分工作職責移交給智能體,就會帶來新的安全風險。周鴻禕舉例說,「假設以後我的智能體能操作電腦,比如給財務員工發送郵件讓對方轉一筆錢,就會帶來風險。」他進一步解釋,如果大模型對接的知識庫包含龐雜的知識數據,其中涉及個人隱私、商業機密等內容,則存在知識數據層面的安全問題,需要防範信息泄露風險。
周鴻禕還建議,組建產業聯盟,打造安全產品。引導相關鏈主企業發揮牽頭作用,廣泛吸納產業鏈上下游企業、科研機構及終端用戶,組建人工智慧大模型安全聯盟,在聯盟內部實現技術成果共享,共同開展產品及服務測試,待產品與服務成熟穩定後,向更廣闊的市場加以推廣,助力大模型安全保障普及至千行百業。
來源:北京日報客戶端
記者:武紅利