谷歌前CEO:如果西方不採取行動,中國將成為開源領域領導者

【文/觀察者網 楊蓉】

據英國《金融時報》12日報道,在中國人工智慧(ai)初創公司deepseek推出的開放式推理大模型r1震驚世界後,美國谷歌公司前首席執行官埃里克·施密特(eric schmidt)警告,西方國家需要專註於構建開源ai模型,否則就有可能在這項尖端技術的全球競賽中輸給中國。

報道說,施密特日前在巴黎參加ai行動峰會時接受採訪指出,目前除了meta的llama以外,美國大部分頂級ai大語言模型都是閉源的,包括谷歌的gemini、anthropic的claude和openai的gpt-4。「如果我們不對此做些什麼,中國最終將成為開源領域的領導者,而世界其他國家將成為閉源國家。」施密特說。

開源大模型是指其模型權重和代碼對公眾開放,允許自由使用、修改和再訓練,而閉源大模型則由開發者嚴格控制,用戶只能通過api或特定平台訪問,無法直接獲取和調整底層模型。施密特告訴《金融時報》,如果西方國家不對開源技術進行投資,可能影響自身科研進展,因為許多高校負擔不起昂貴的閉源模型。

當地時間2025年2月10日,施密特在巴黎ai行動峰會上 視覺中國

ai大模型的開閉源路徑之爭,一直是業內激烈交鋒的話題。美國openai公司早年的主要投資人之一、特斯拉創始人馬斯克去年「杠上」openai,指控之一就是後者違背「初心」,為了營利將大模型閉源。

openai方面反駁了馬斯克的說法,並公布證據稱,馬斯克此前也支持將openai轉變為一家營利性公司,只是因為他無法獲得控制權而退出。不過,對於開閉源孰優孰劣,openai首席執行官薩姆·奧爾特曼(sam altman)最近倒是承認,openai的閉源策略站在了「歷史錯誤的一邊」。

奧爾特曼表示,openai員工正在討論開源的可能性,但補充說:「並非所有人都認同這種觀點,這也不是我們當前最優先考慮的事項。」奧爾特曼還稱讚deepseek的最新模型是「非常好的模型」。他說,儘管自己認為openai未來仍將開發出更好的模型,但將無法像過去那樣保持那麼大的領先優勢。

當地時間2025年2月11日,奧爾特曼在巴黎ai行動峰會期間於初創企業園區station f參加活動 視覺中國

針對奧爾特曼這一罕見表態,施密特則認為奧爾特曼「認錯」有點「太快」。在施密特看來,ai發展的未來在於將開源和閉源模型結合起來。他說,雖然美國通過像gpt-4這樣強大的ai模型在產業發展的第一階段佔據了主導地位,但歐洲有機會通過思考如何在技術之上建立「應用」,將ai應用於企業,獲得經濟收益。

「歐洲必須行動起來。」施密特說,「應用層的功能非常強大,它將使你們的歐洲更加高效。」

此外,施密特還呼籲西方國家與中國在ai安全方面開展合作。《金融時報》稱,施密特將這比作不同國家軍方測試火箭時的信息共享:「我們向他們提供信息,他們可以利用這些信息使他們的模型更加安全,這對我們怎麼可能是壞事呢?」

今年1月,deepseek發布其最新開源模型deepseek-r1,用較低的成本達到了接近於openai開發的gpt-o1的性能,在海內外迅速出圈,引發熱烈討論。圖靈獎得主、meta ai首席科學家楊立昆(yann le cun)當時評價,deepseek成功的最大意義就是證明了ai開源的價值,即任何人都能從中受益。

「這是一個特殊的時刻,一家中國公司成為事實上的開源領導者,而除了meta以外的大多數美國大公司繼續嚴格保密其方法論。」施密特上月28日在美國《華盛頓郵報》與人聯合發表專欄文章寫道。

他指出,雖然當前ai的開閉源之爭和中美科技競賽尚無明確勝負,但deepseek依靠遠少於美國科技巨頭的資源,就能與它們競爭,這已給美國ai企業帶來巨大壓力。他表示,美國試圖通過晶元出口管制措施阻礙中國的產業發展,但這事實上可能反而促使中國企業和研究人員提高效率,探索提升訓練效率的新方法。

「長期以來,美國的競爭優勢一直依賴於開放科學以及行業、學術界和政府之間的合作。」文章寫道,「我們應該接受開放科學可能再次為人工智慧時代的美國注入活力的可能性。」

值得一提的是,就在2月11日落幕的巴黎ai行動峰會上,包括法國、中國、印度、歐盟在內的60個國家和國際組織共同簽署了《關於發展包容、可持續的ai造福人類與地球的聲明》。但法國總統府當日在官網公布的聲明文件顯示,美國和英國均未簽署該聲明。

據報道,該聲明確立了ai發展的幾大優先事項,包括:促進ai可及性以縮小數字鴻溝、確保ai的開放透明和可信性、推動創新以促進工業發展、積極塑造勞動力市場和可持續增長、提升ai對人類和地球的可持續性、加強國際合作促進全球治理協調等。

英國政府在一份簡短聲明中稱,其「同意領導人聲明的大部分內容」,但認為聲明「沒有就全球治理提供足夠的實用明確性,也沒有充分解決有關國家安全的更棘手問題,以及ai構成的挑戰」。

然而,這引來一些業內人士的不解。獨立研究機構「埃達·洛夫萊斯研究所」(ada lovelace institute)副主任邁克爾·伯特威斯爾(michael birtwistle)對英國廣播公司(bbc)表示:「從峰會公報來看,很難確定政府到底不同意該聲明中的哪些內容。」

據「政客」新聞網歐洲版報道,美國政府對聲明措辭中呼籲發展「包容和可持續」ai的部分並不贊同。一名接近主辦方的消息人士則告訴路透社,考慮到美國特朗普政府在ai監管方面的立場,他們對美國沒有簽署聲明並不感到驚訝。

美國副總統萬斯11日在峰會發表演講說,美國打算繼續保持在ai方面的主導地位,並強烈反對對ai進行「過度監管」,並稱這「可能會扼殺一個變革性的行業」。分析認為,萬斯的演講顯示,美國的科技產業政策發生了明確的轉變。「安全將不再是首要關注點,取而代之的是加速創新,以及相信技術是一種機遇。安全等於監管,監管等於失去這種機遇。」斯坦福以人為本ai研究院執行主任羅素·瓦爾德(russell wald)說。

本文系觀察者網獨家稿件,未經授權,不得轉載。