李想「不想造車」的背後,其實是想造「司機 Agent」


李想認為,理想汽車的智能化原創性已超增程。

作者|曹思頎 周永亮
編輯|靖宇

五個月前,李想高調地宣布了將 all in ai,表示理想要從一家智能汽車公司,轉型邁向一家人工智能科技公司。
而這次,李想帶着全新的 vla(vision-language-action)模型走到了公眾面前。此前,vla 已經在 3 月的英偉達 gtc 大會上首次發布,它是理想汽車去年在輔助駕駛領域「端到端+vlm」的雙系統架構上進化而來的新架構。
智能化,既是理想近年來最希望打造的標籤,也是重點投入研發的方向。理想 2025 年產品的核心點都主要圍繞智能化升級升級展開,李想曾在內部說:
「理想的智駕原創性超過了增程」。
因此,推出全新的 vla 架構模型,李想希望讓輔助駕駛進化出類似人類司機的能力。在李想看來,vla 是理想的「司機大模型」(或「司機 agent」),他希望這個模型/智能體能像人類司機一樣工作,將來也能像人類司機那樣創造商業價值。
在 demo 演示視頻里,理想的這個「司機 agent」展示了和人類司機類似的智能能力:不僅具備現有的優秀輔助駕駛能力,而且還能直接通過語音的方式和人類駕駛員高效交互。
在通過高速收費站時,直接說出「走人工」三個字,系統就可以從 etc 收費通道轉向人工收費通道;在日常駕駛和泊車環節,也可以通過「前方掉頭」、「c 區停車」、「靠邊停車」等簡單指令,調整行車或泊車的路線,達到了我們日常和網約車或代駕司機溝通的水準。

01

輔助駕駛再進化:從「雙系統」到 vla
經過了十幾年的發展,輔助駕駛經歷了多次迭代。其架構演進大致可分為模塊化⽅案(2022 年之前)、端到端感知(2023 年)、vlm+e2e (2024 年)。
總的來說,自動駕駛大腦的設計從「各自為政」的小團隊,進化到「邊看邊學」的超級學生,再到「常識+行動」的嘗試。
如今,輔助駕駛又來到新的十字路口—— vla。這也是理想 ai talk 第二季的重點。基於此,李想認為,輔助駕駛處於「黎明前的黑暗」,黎明馬上就要來了。
其實,2025 年 3 月的英偉達 gtc 大會上,理想就發布了下一代自動駕駛架構 vla。這裡稍微介紹一下,vla 最早是由 google deepmind 在 2023 年 7 月提出的用於機器人控制的模型,其以大語言模型為基礎,模型在接收攝像頭的原始數據和語言指令後,可以直接輸出控制信號,完成各種複雜的操作。
對於理想汽車而言,李想表示,vla 是一個「司機大模型」,它像人類司機一樣工作。同時,李想強調,vla 的誕生不是突變,而是進化。
簡單說,vla 並非拋棄端到端,而是將其作為 vla 行動(a)部分的基礎。只有做好規則算法,才能知道如何做端到端,只有把端到端做到極致水平,才有機會去做 vla,這個過程沒有捷徑。
他詳細闡述了訓練 vla 的四個步驟,這有點像人類學開車的過程。
vla 司機大模型的訓練和推理過程 | 圖片來源:直播截圖
第一步是預訓練,就像去駕校前先學交規、認路標,這一步的目標是讓ai擁有對世界和交通的基礎認知。理想先訓練了一個 vl(視覺和語言)基座模型。然後,它會被「壓縮」(蒸餾)成一個更小、能更快運行的模型(約 32b 參數),這樣它才能流暢地跑在汽車裡的車端芯片上。
第二步是後訓練,像在駕校里跟着教練練車。工程師讓 ai 觀看大量人類司機開車的視頻,學習模仿他們的操作。把會「看」和「聽」的模型,跟學會了「行動」的模型結合起來,形成一個初級的 vla「端到端」模型。
第三步是強化訓練,像拿到駕照後,在社會上不斷磨練提升,成為經驗豐富的「老司機」。這個過程要經過兩個考驗:第一, 參考大量人類司機的駕駛數據。當它做得好時得到「鼓勵」,做得不好的時候,比如讓人類接管了,得到「反饋」。
同時,理想汽車搭建了一個非常逼真的虛擬「交通世界」,有點像一個超高水平的模擬器,讓ai在裡面自己練習。
最後,有了這個 vla「司機大腦」後,理想汽車還設計了一個「司機agent」。用戶可以像跟你自己的司機說話一樣,用自然語言告訴車想去哪、怎麼開,agent 會把你的指令傳達給 vla,讓它去執行。
不過,李想也表示,vla(司機大模型)能夠解決到全自動駕駛,但未來可能還有效率更高的架構。雖然目前的 transformer 是能力最強的架構,甚至有機會超過人類,但它對算力的要求還是很高。這也意味着 vla 可能並非終極解決方案,未來的技術演進仍充滿變數。

02

擁抱開源,感謝 deepseek
deepseek 的出現,加速了 ai 領域的進化,也影響了理想在 ai 領域的研發進程。
在原有的計劃里,理想原計劃在今年 9 月先推出一個足夠好的語音模型(即 vla 里的「l」部分),在此基礎上再繼續訓練 vla 模型。deepseek 的出現讓理想看到了「站在巨人肩膀上」的機會。
據李想回憶,今年 1 月 deepseek r1 模型發布並開源後,他很快就和 cto 謝炎、基座模型負責人陳偉達成了共識。團隊內部認為應該以此為基礎,加速 vla 研發進展,並研究如何在芯片上也跑到同樣的訓練和推理的效率。
李想說,公司「擁抱 deepseek 的過程比想象得快」。而更加令人意外的是,李想披露了公司開源自研四年的整車操作系統——理想星環 os,其核心動因並非戰略考量,而是受到 deepseek 開源精神的鼓舞,「說白了純粹是感謝 deepseek」。
李想在 ai talk 中發表觀點 | 圖片來源:直播截圖
當然,ai 的研究和投入也在繼續。李想說,2025 年理想購買的訓練卡比預期大概「多了 3 倍」。
目前,理想正在訓練兩個基座大模型,分別是:
  • 一個用於「理想同學」app 的模型基座,參數量約為 300b(3000 億),使用場景是用在類似豆包、kimi 的語音模型應用上

  • vl(vision+language)模型底座,參數量大約在 32b(320 億),為 vla 模型的訓練基座

在李想看來,vla 模型是一條 deepseek、openai、waymo 等公司都沒有走過的「無人區」,和目前通用語言模型最大的不同之處就在於,訓練 vla 模型,需要加入足夠過視覺和語言聯合的語料,即三維圖像和模型對世界的理解語義要同時產生的,而這樣的模型並沒有原始數據。
在春節之後理想的第一次例會上,李想將 deepseek 的出現比作 linux 的推出,並表示理想要追逐人工智能的「安卓時刻」。理想希望可以在專業和垂直領域裡,訓練出一個專用大模型,以提升垂直領域的 ai 能力,並最終交付價值。
在訪談最後,李想也提到了競爭對手特斯拉。他表示目前特斯拉 fsd 在國內的模型水平,並不代表特斯拉的真實實力,「大概在用 v12.5 以前的模型」。但整體來看,他依然認為特斯拉 fsd 系統的基本功很紮實,是理想真正需要學習的能力。
「基本功」也是這場 ai talk 中李想反覆提到的高頻詞彙。他認為「不可能不做前面的積累,直接吃到第 10 個包子」。他認為在內卷的環境下,更要重視基本功,否則創新會變成曇花一現。
而人工智能,顯然是當下李想和他的團隊認可並正在大力投入的那個方向。
*頭圖來源:理想 ai talk 第二季
本文為極客公園原創文章,轉載請聯繫極客君微信 geekparkgo