每經記者:岳楚鵬 每經編輯:高涵
今天(2月24日),DeepSeek開源周正式開啟。
第一個開源的項目就是重量級技術DeepSeek-V3核心技術MLA的改進版本FlashMLA。該項目上線僅兩個小時就已經收穫了超過2600+star!

圖片來源:Github
據介紹,FlashMLA的靈感來自FlashAttention 2&3和cutlass項目,是針對英偉達Hopper架構的GPU優化的高效MLA解碼內核,主要在變長序列 (variable-length sequences) 的場景進行了深度優化,能夠顯著提升大模型推理效率。
FlashMLA速度非常快,在H800 GPU上具有3000 GB/s的內存速度上限以及580 TFLOPS的計算上限。此外,部署這一技術也很簡單,只需要滿足FlashMLA的運行環境要求(Hopper GPU、CUDA 12.3及以上版本以及PyTorch 2.0及以上版本),就可以一鍵通過`python setup.py install`完成配置。
總之,FlashMlA對英偉達GPU進行了優化。

圖片來源:X
眾所周知,MLA是DeepSeek大模型的重要技術創新點,之前Huggingface技術總監也曾多次讚揚此項技術。此次DeepSeek直接開源了該核心技術的改進版本,可以說是誠意滿滿。
DeepSeek表示,當前在線服務的模塊已經經過測試、部署完備,可以投入生產環境。這個領域沒有高高在上的象牙塔,只有純粹的車庫創業精神與社區共築的創新力量。
正如很多網友的評價:DeepSeek才是真正的OpenAI。

圖片來源:X
之前幾次DeepSeek新模型和技術的公布都對美股和A股產生了很大的震動。
寒武紀(688256.SH)股價上個交易日20cm漲停,股價創新高;今天盤中最高795.8元,截至收盤大漲5.14%,續創新高。

寒武紀股價大漲和DeepSeek開源有什麼關係?
每經小編問了DeepSeek。它分析稱:
FlashMLA是DeepSeek對混合專家模型(MoE)架構的改進版本,這類技術需要高性能AI晶元提供算力支持。寒武紀的雲端推理晶元(如MLU370)和訓練晶元(如MLU590)直接受益於大模型技術迭代帶來的算力需求增長。寒武紀作為國產龍頭,可能因FlashMLA等本土技術突破獲得更高關注度。
總之,FlashMLA的開源可能通過技術協同效應和市場情緒催化間接推動寒武紀股價,但直接因果關係較難量化。

圖片來源:每日經濟新聞App
從上面的截圖,大家可以看到,每經小編並沒有使用DeepSeek的App,因為總是「伺服器繁忙」,而是從每日經濟新聞App進入DeepSeek-R1。
2月12日每日經濟新聞App和每經網全面接入DeepSeek、Kimi、豆包、智譜清言、文心一言和通義千問6款大模型。用戶通過每日經濟新聞App和每經網就能與大模型自由對話還能一鍵「問公司」「問投資」「問基金」。
不得不說,用起來真的很絲滑,目前使用量已經超13萬次了!
咋用呢?超簡單!
先下載每日經濟新聞App
https://www.nbd.com.cn/corp/2016app/index.html
再往下看
↓
一、 在每日經濟新聞App首頁,點擊「DeepSeek」圖標或首頁輪播圖「自由問+問公司問投資問基金免費使用DeepSeek、Kimi、豆包等六款大模型」。

二、 進入「每經大模型平台」頁面,即可使用DeepSeek、Kimi、豆包、智譜清言、文心一言和通義千問6款大模型中任意一款。

最近,每經「136計劃」還增加了新功能:
大模型解讀投資熱榜。
只需點擊投資熱榜中的任意新聞。

立即就能得到大模型的全面分析。
還能一鍵生成圖片分享給朋友。


告別「伺服器繁忙」
快用每日經濟新聞App吧!
免責聲明:本文內容與數據僅供參考,不構成投資建議,使用前請核實。據此操作,風險自擔。
每日經濟新聞