英偉達聯合發布Mistral-NeMo AI模型:120億參數

IT之家 7 月 19 日消息,英偉達聯合法國初創公司 Mistral AI,今天發布了全新的 Mistral-NeMo AI 大語言模型,擁有 120 億個參數,上下文窗口(AI 模型一次能夠處理的最大 Token 數量)為 12.8 萬個 token。

VentureBeat 與 Midjourney 合作製作

Mistral-NeMo AI 大模型主要面向企業環境,讓企業不需要使用大量雲資源的情況下,實施人工智慧解決方案。

由於 Mistral NeMo 依賴於標準架構,因此企業在使用過程中可直接替換任何使用 Mistral 7B 的系統。

英偉達是 GPU 製造和人工智慧硬體領域的巨頭,而 Mistral AI 則是歐洲人工智慧領域的後起之秀,雙方的合作標誌著人工智慧行業的企業解決方案發生了重大轉變。

行業分析師認為,這一版本可能會極大地顛覆人工智慧軟體市場。Mistral-NeMo 的推出代表著企業人工智慧部署的潛在轉變。

通過提供一種可在本地硬體上高效運行的模式,英偉達和 Mistral AI 正在解決阻礙許多企業廣泛採用人工智慧的問題,如數據隱私、延遲以及與基於雲的解決方案相關的高成本。

此舉有可能創造公平的競爭環境,讓資源有限的小型企業也能利用人工智慧功能,而這些功能以前只有擁有大量 IT 預算的大型企業才能使用。

然而,這一發展的真正影響將取決於該模型在實際應用中的表現,以及圍繞該模型開發的工具和支持生態系統。

該模型以 Apache 2.0 許可發布,允許商業使用,這將加速其在企業環境中的應用。IT之家附上官方公布的該 AI 模型性能參數如下:

表 1:Mistral NeMo 基本模型與 Gemma 2 9B 和 Llama 3 8B 的性能比較。

圖 1:Mistral NeMo 在多語言基準測試中的表現。

圖 2:Tekken 壓縮率

Mistral NeMo 指令調整模型精度。使用 GPT4o 根據官方參考文獻進行的評估。

參考