DeepSeek颳起新潮流,兩會代表委員熱議AI,雷軍、李東生呼籲監管要繫緊韁繩

本文來源:時代財經 作者:郭美婷

2025年,人工智能再一次站上了全國兩會的“c位”。

去年,“人工智能+”首次被寫進政府工作報告。而今年,政府工作報告再提“人工智能+”,與之相關的“具身智能”“人工智能手機和電腦”“智能機器人”等關鍵詞也首次被納入報告中。

2025年政府工作報告指出,要建立未來產業投入增長機制,培育生物製造、量子科技、具身智能、6g等未來產業,同時還提出要持續推進“人工智能+”行動,將數字技術與製造優勢、市場優勢更好結合起來,支持大模型廣泛應用,大力發展智能網聯新能源汽車、人工智能手機和電腦、智能機器人等新一代智能終端以及智能製造裝備。

與此同時,多名全國人大代表或政協委員同樣圍繞人工智能的發展建言獻策,在加快人工智能發展的同時,也要謀求產業規範。

圖源:圖蟲創意

搶抓deepseek機遇

年初,deepseek颳起新潮流,打破了過去ai靠“砸錢堆算力”的困局。而今年兩會,多位企業代表提出,行業也亟需抓住此次deepseek帶來的歷史機遇,加快算力基礎設施的建設,促進ai在各行業的深度應用。

全國人大代表、科大訊飛董事長劉慶峰認為,國產大模型實現性能效果突破,引起國際社會對中國人工智能領域更深刻、更廣泛的警惕和限制。國產大模型訓練高度依賴進口算力,除訊飛星火外,其他全民可下載的大模型均基於英偉達卡訓練。若不能加快解決國產自主可控人工智能產業生態薄弱、適配困難等問題,無異於“在別人地基上建高樓”。

為此,他提出了加快構建國產算力平台上的自主可控大模型及產業生態的建議,鼓勵基於自主可控國產算力平台的大模型研發和應用,構建數據資源充分共享機制,同時專項支持基於國產算力平台的生態體系建設。

全國人大代表,tcl創始人、董事長李東生在接受時代財經等採訪時同樣表示,deepseek最重要的意義在於發明了一種新的算力結構,這種算力結構相比原來的,只要十分之一不到的資源。

“以前算力中心的投入很高,從成本效益來考慮,我們更多是利用公共算力資源來做這件事。但一些敏感計算還得在自己的算力中心跑,這影響了整個開發的速度。”李東生透露,在未來2到3年,tcl會把自身的算力中心能力大幅提高,而依託於deepseek的算力架構,這項投資也是公司所能承受的。

ai發展至今,如何實現技術落地是每一家企業面臨的終極命題。作為ai的重要載體,電子終端也備受企業代表關注。

全國人大代表、小米集團董事長兼ceo雷軍認為,當前人工智能終端處於快速發展的起步階段,行業內的產品在功能性能、外在形態、技術先進性等方面差異較大,也存在技術創新瓶頸、產業協同不足等問題,亟待通過政策引導與支持加以解決。

為此,雷軍建議,健全人工智能終端標準體系,強化人工智能終端產業協作,同時,加大人工智能終端支持力度,推進產業創新發展。

劉慶峰則關注到了消費品“以舊換新”政策對ai智能終端覆蓋度不夠的情況,他建議優化和豐富消費品“以舊換新”等政策:將包括家庭機器人、ai學習機等在內的ai智能終端全面納入補貼範疇,合理設置補貼限價,使其享受與家電同等的補貼。

關注ai監管

快速發展的ai是一把雙刃劍。它在給經濟社會帶來巨大機遇和利益的同時,也引發了一系列社會經濟、道德倫理等問題。

全國人大代表、天能控股集團董事長張天任提到,比如從社會經濟角度來看,部分企業利用人工智能技術虛假宣傳、誇大宣傳,誤導消費者和投資者,擾亂了市場秩序;在道德倫理領域,人工智能系統高度依賴海量數據,在數據收集、存儲和使用過程中,隱私泄露風險極高。算法歧視更是成為社會公平的絆腳石,在招聘、貸款審批、司法量刑等關鍵決策環節,基於有偏差數據訓練出的算法,可能會對特定群體造成不公平的篩選和判斷。此外,當人工智能系統引發事故或造成損害時,責任界定的模糊性使得受害者難以尋求有效的法律救濟。

張天任認為,上述人工智能存在的問題,迫切需要通過完善的立法和有效的監管機制加以解決,雖然我國已出台《生成式人工智能服務管理暫行辦法》,但該辦法僅針對生成式人工智能,無法全面涵蓋人工智能領域的各類問題和應用場景。因此,啟動立法研究並制定專門的綜合性法律,以確保人工智能在健康、合理的軌道上發展,造福社會,勢在必行。

為此,張天任建議制訂《人工智能管理法》,以確保人工智能行業的健康、有序、可持續發展,使其更好地服務於人類社會,同時防範和應對可能出現的負面效應。

圖源:圖蟲創意

而在ai產生的亂象中,“ai換臉擬聲”“ai深度偽造欺詐”等現象成為了今年備受矚目的話題。

雷軍稱,“ai換臉擬聲”不當濫用造成了違法侵權行為的重災區,易引發侵犯肖像權、侵犯公民個人信息以及詐騙等犯罪行為,甚至造成難以挽回的大規模形象和聲譽損害,帶來社會治理等風險。ai深度合成技術所需素材獲取便利、技術使用門檻低、侵權主體及其手段隱蔽性強等特點,給治理帶來較大挑戰。

為此,他建議加快單行法立法進程,在安全與發展並重的基礎上提升立法位階;其次,強化行業自律共治,壓實平台企業等各方的責任和義務;最後,加大普法宣傳的廣度力度,增強民眾的警惕性和鑒別力。

李東生也認為,近年來我國相關立法雖有關注ai深度偽造欺詐這一議題,但已出台的規章制度尚不成體系,還不具備可操作的細則和明確的處罰標準。

為此,李東生建議從加快出台管理規章制度、明確懲罰制度、標識技術標準和發布管理、國際合作等方面,加強ai深度偽造欺詐管理。

另外,針對大模型生成“幻覺數據”充斥互聯網帶來的危害,劉慶峰建議,一方面可構建安全可信數據標籤體系,提升內容可靠性;另一方面,研發aigc幻覺治理技術和平台,由中央網信辦、國家數據局等部門定期清理幻覺數據,為公眾提供aigc幻覺信息檢測工具與服務。