DeepSeek降本秘訣曝光:2招極致壓榨推理部署,算力全留給內部AGI研究

DeepSeek R1橫空出世第128天,已經把整個大模型市場攪得天翻地覆!

首先,它以一己之力把推理模型的價格打下來,OpenAI六月更新的o3價格相比o1直接打了2折

其次,第三方平台託管的DeepSeek模型使用量瘋狂增長,比剛發布時漲了將近20倍成就了大批雲計算廠商

然而,DeepSeek自家的網站和API市場份額卻不斷下降,跟不上AI產品上半年持續增長的節奏了。

以上數據來自SemiAnalysis發布的一篇報告,詳盡解讀了DeepSeek對AI模型競賽的影響以及AI市場份額的現狀。

揭開DeepSeek的降本秘訣

DeepSeek剛發布時確實火得一塌糊塗,但四個多月過去了,情況卻有點微妙。

從數據來看,DeepSeek自家網站和API的流量不升反降,市場份額也在持續下滑。

到了5月,全網DeepSeek模型產生的token中,來自DeepSeek本家的份額已經只佔16%了。

網頁版聊天機器人流量也大幅下降,而同期其他主要大模型網頁版流量都在飆升。

DeepSeek V3與R1模型都經過版本更新,能力與1月相比更強了,價格又便宜,怎麼用戶反而跑了呢?

這種「牆內開花牆外香」的現象,背後其實大有文章。

SemiAnalysis指出,DeepSeek為了把成本壓到極致,在服務質量上還是做了大量妥協

用戶在DeepSeek官方平台上使用模型,經常要等上好幾秒才能看到第一個字蹦出來,可以用首token延遲(First token latency)這個指標來衡量。

相比之下,其他平台雖然普遍價格更貴,但響應速度快得多,有些甚至能做到幾乎零延遲。

在Parasail或Friendli等平台,只需支付3-4美元就可以獲得幾乎沒有延遲的100萬token額度。

如果想選擇更大更穩定的服務商,微軟Azure平台價格是DeepSeek官方的2.5倍,但延遲減少了整整25秒。

從另一個角度看,DeepSeek官方甚至不是同等延遲下價格最低的一家DeepSeek模型服務商。

如果在這張圖上用氣泡大小表示上下文窗口,可以看出DeepSeek在價格與性能之間的另一個權衡。

在有限的推理計算資源下,只提供64k上下文窗口的服務,在主流模型提供商中算是最小的之一。

在需要讀取整個代碼庫的編程場景里,64K根本不夠用,用戶只能選擇第三方平台。

而同樣價格下,Lambda和Nebius等平台能提供2.5倍以上的上下文窗口。

DeepSeek還把很多用戶的請求打包在一起處理,雖然每個token的成本降下來了,但每個用戶等待的時間也增加了。

大模型下半場:提升每個token的智能

需要明確的是,這些降本策略都是DeepSeek主動做出的決定。

他們目前看上去對用戶體驗不怎麼感興趣,既無意從用戶身上賺錢,也無意通過聊天應用或API服務向用戶提供大量token,更多地是專註於實現AGI

從這些優化策略就可以看出,DeepSeek把儘可能少的算力用作推理服務給外部使用,大量的算力資源留在內部研發用途

同時配合開源策略,讓其他雲服務託管他們的模型,贏得影響力和培養生態,兩不耽誤

說到底,AI競賽拼的還是算力資源。

在DeepSeek影響下,Claude也開始降低速度緩解算力緊張的問題,但為了營收還是在努力平衡用戶體驗。

Claude 4 Sonnet發布以來,輸出速度已經下降了40%,但仍然比DeepSeek快不少。

另外Claude模型被設計成生成更簡潔的回復,回答同樣的問題,DeepSeek和Gemini可能要多花3倍的token。

種種跡象表明,大模型供應商正在多維度地改進模型。

不僅僅是提高模型的智能上限,而是提升每個token能提供的智能

參考鏈接:[1]https://semianalysis.com/2025/07/03/deepseek-debrief-128-days-later/#speed-can-be-compensated-for

本文來自微信公眾號「量子位」,作者:關注前沿科技,36氪經授權發布。