百模大戰中,笑到最後的可能並不是OpenAI

2023年顯然是無可爭議的ai大年,如果對chatgpt、openai、生成式ai、llm(大語言模型)等概念一頭霧水,那你可能就out了。甚至自1956年達特茅斯會議上人工智能(ai)這一概念誕生以來,ai從未距離大眾如此之近。所以自然而然的,圍繞ai的一切也引發了大量的關注,特別是對於站在浪潮之巔的巨頭們關於ai的隻言片語,也總能引發諸多的熱議。

被稱為“ai教父”的傑弗里·辛頓繼不久前從谷歌離職後,隨即就加入了“ai批評者”的行列,並大談ai未來可能會帶來的風險,甚至還表示,“我對畢生所研究的東西感到後悔”。

就在他態度180°大轉彎激起、由“不明真相吃瓜群眾”對ai危險性的討論尚未落幕之時,一個據稱是谷歌高級軟件工程師luke sernau所寫的內部信又激起波瀾。而這份被泄露的文件中其實只有一個核心主旨,那就是谷歌、openai都沒有護城河,開源ai將會摘取這個賽道最後的勝利果實。

在這一場生成式ai的“大戰”中,谷歌顯然只是不折不扣的追趕者。雖然作為阿爾法狗的創造者,多年來谷歌一直扮演着“ai佈道者”的角色,但在生成式ai領域,chatgpt無疑才是領路人。緊隨其後的google bard公開演示翻車、導致谷歌市值一度蒸發千億美元後,好不容易推出將生成式ai整合到工作場景的workspace後,微軟融合了gpt-4的microsoft 365 copilot又很快把風頭搶走了。

所以在外界看來,如今焦慮一詞或許才是谷歌在面對生成式ai、llm時,最為真實的寫照。

與此同時,領導谷歌前進的ceo皮查伊持有保守傾向、並且也受到了不少的掣肘,以至於谷歌的ai路線圖目前並不清晰。在這樣的情況下,公司內部的“有識之士”當然也就會心急如焚。

那麼問題就來了,作為在生成式ai賽道落後的谷歌有危機感、內部傳出悲觀論調再正常不過,但為什麼會扯上openai呢,或者說為什麼開源ai才是最終的勝利者?

鮮花着錦烈火烹油,無疑是當下openai的境況。別看這家公司現在幾乎是最炙手可熱的投資標的,但據相關海外科技媒體在近期曝光的新一輪融資文件顯示,openai的估值來到了290億美元。可要知道的是,目前在a股,僅僅寒武紀和崑崙萬維這兩家ai概念的市值,就已經接近這個數字。換而言之,一手點燃了生成式ai這把火的openai,其實並沒有被投資者給出一個驚人的估值。

在許多業內人士看來,openai目前的問題在於缺乏一個清晰的商業模式,他們現階段唯二可以確定的收入,是一個月20美元的chatgpt plus訂閱服務,以及1k tokens/0.002美元的chatgpt api,但這兩者顯然還不足以讓openai盈利。甚至有觀點認為,openai現在像極了世紀之交的qq,儘管同樣都是站在相關領域的最前沿,但也同樣缺乏一個明朗的商業化前景。但後來qq等來了qq秀,目前openai卻暫時還看不到解決商業化難題的契機。

事實上,讓谷歌公司的內部人士對谷歌、openai悲觀的核心,是生成式ai、或者說llm本身其實並沒有太深的護城河。沒錯,別看chatgpt、文心一言這類產品表現得如此智能,但實際上打造一個生成式ai並沒有大家想象的那麼難。

llm的理論其實非常簡單,即通過分析大量文本數據進行訓練,從而學習語言的結構和模式,其所使用的架構也是是長短時記憶網絡(long short-term memory,lstm)或門控循環單元(gated recurrent unit,gru)等傳統的循環神經網絡結構。

llm更像是“力大磚飛”的結果,然而在chatgpt一鳴驚人前,業界更青睞的其實是谷歌的transformer模型。而後者追求的卻是如何設計出更小、更快,但更準確的神經網絡,甚至於彼時openai的gpt-3是被業界作為負面典型進行評價的。當時就有業內人士表示,“gpt-3在小樣本學習中表現出卓越的能力,但它需要使用數千個gpu進行數周的訓練,因此很難重新訓練或改進。”

chatgpt的成功就成功在它提出了一個新的思路,畢竟加大參數、加高算力的大模型也是一個方向,並且真的讓大模型湧現出了智能。但顯而易見的是,這一模式並沒有護城河。君不見,即使openai對自己基於人類反饋的強化學習(rlhf)技術秘而不宣,也阻攔不了百度文心一言、阿里通義千問、谷歌bard等等一眾同類大模型的出現。

此前李彥宏就曾在百度的內部講話中提到,“算力不能保證我們能夠在通用人工智能技術上領先,因為算力是可以買來的,但創新的能力是買不來的,是需要自建的”,也就是說算力和參數都可以買、技術壁壘不高。所以也難怪短時間內國內市場的“百模大戰”就已開打,因此先發優勢在這裡幾乎不值一提。

當然,如果沒有meta的llama模型“意外”在4chan上泄露,llm的技術壁壘不高也只是相對大廠而言。但llama模型的被迫開源,也讓開源社區主導了最近一段時間針對chatgpt的“平替”熱潮。

比如說來自斯坦福的alpaca,藉助llama的預訓練模型為基礎,僅使用來自gpt模型的一個小尺寸調優數據集(52000個樣本),就建立了一個具有對話功能的llm。而基於llama模型,以及lora (low-rank adaptation of llm,即插件式的微調)訓練,開源社區在不到兩個月的時間裡已接連發布了chatllama、alpaca、vicuna、koala等模型,並且“羊駝家族”們的實際效果還直追gpt-3.5、甚至不輸gpt-4。

藉助社區的力量群策群力,並最終實現極低成本下的高速迭代,這無疑就是開源ai的優勢。就像谷歌這位員工所說的那樣,“如果存在一個沒有使用限制的免費高質量替代品,誰還會為帶有使用限制的谷歌產品買單呢?”

因此從某種意義上來說,谷歌在android上的做法可能才是最佳範例,也就是讓開源社區不自覺地為自己的商業利益服務。

所以不得不說,llama模型泄露更像是一個神來之筆,一下子就讓原本掉隊的meta實現了超谷歌、趕openai,畢竟“羊駝家族”就是在meta的架構之上誕生的產物。

【本文圖片來自網絡】