自chatgpt發布以來,熱度居高不下,集成了chatgpt的產品競爭也日趨白熱化——谷歌於7號發布下一代對話ai系統bard,微軟也於8日上線了集成chatgpt的新必應搜索引擎。而百度、阿里、網易、科大訊飛等國內互聯網企業則爭相釋出正在研發或即將發布類似產品的消息。
相較以往的自然語言處理模型,chatgpt究竟有多大的突破性?如果很大,為什麼國內外頭部科技企業都聲稱自己已研發出類似產品?如果不大,為什麼它會爆火?更重要的是,未來它是否真的會取代目前的搜索引擎?
1
相比其他模型,chatgpt的技術突破有多大?
據開發方openai(美國知名人工智慧實驗室)介紹,chatgpt使用基於gpt-3.5架構的大型語言模型,這使其語言理解能力更強。此外,它可以使用多種語言進行交互,還能夠聯繫上下文和語境給出回復,並根據用戶的語料進行訓練和調整,使回復更符合用戶的需求。
chatgpt和以往的語言模型不同的是,它能夠記住並理解用戶在此前對話中輸入的內容,這對語言模型來說是較大的技術突破。「在機器的語義理解中輸入的句子越短,邏輯越簡單,機器的正確性就越高。但如果要把我們整個會話都記住,而且理解新問題對整體對話帶來的意義改變,這是一個很困難的事情。」中科深智創始人兼ceo成維忠說。
除此之外,chatgpt的基礎架構之一是有監督學習的深度學習模型。成維忠向南都·ai前哨站解釋道,此前更為主流的大型語言模型演算法的訓練方式是非監督訓練。而在無監督學習出現後,大部分科技公司就採用了這個新方式,不再使用成本更高的有監督學習。
「本來大模型、預訓練,路子是無監督訓練,不斷填數據就行了,演算法參數越來越大,效果越來越好。但openai到了instructgpt,忽然要加有監督微調,要加人工反饋,要加強化學習,看上去有點像『瞎搞』,但非常大膽。」
因此,成為忠形容chatgpt「有點像是走了回頭路」——「把過去的一些大模型訓練之前的方法拿來用了,比如說對其進行人工干預和強化訓練,其實是蠻突破性的。」事實證明,這一技術所需的人工成本更高,但效果更好。
「在某種意義上,這其實是對過去一味追求(參數)大和追求無監督學習的一個路線修正。」京東集團副總裁何曉冬曾對媒體表示,相較之前大量使用無監督深度學習演算法,chatgpt模型背後的演算法和訓練過程更加新穎。如果沒有人參與數據甄選,模型參數即便大十幾倍,也很難達到如今的效果。
2
為何科技巨頭爭相下場?誰將取得先機?
然而,chatgpt的「爆火」可能並非全部出自於技術上的創新。
清華大學人工智慧國際治理研究院副院長、人工智慧治理研究中心主任梁正指出,在chatgpt出現之前,已經有許多語言模型面世,提高了用戶的接受度,大語言模型的發展應用逐漸發展到了臨界點。而chatgpt的出現意味著這種模型「從能用到好用」,打開了商業的想像力。
「就像人臉識別一樣,」他進一步解釋,2016年之前,人臉識別的準確率比較低,「當時我們做調研,如果人臉識別的準確率不到90%是不會有人用的,因為糾錯的成本太高了。chatgpt去年12月出來,一開始也只有專業圈子的人在用,後面發現質量還可以,才打開了規模化應用的嘗試。」
在成維忠看來,chatgpt的成功與其開放和用戶的交互不無關係。他提到,此前openai發布的gpt1-3系列只是進行了技術發布,沒有提供用戶交互的應用,所以用戶們比較難有直觀的使用感受。
借著技術發展和規模化應用的東風,chatgpt似乎找到了最合適的商業化道路,各大巨頭紛紛聞風而動。
2月7日,谷歌宣布將推出下一代對話ai系統bard。谷歌首席執行官桑德爾・皮查伊表示,「很快你就會在搜索中看到 ai 支持的功能,它可以將複雜的信息和多個視角的信息提煉成易於理解的格式。」
緊接著,微軟官宣由chatgpt支持的新版必應搜索引擎和edge瀏覽器。微軟首席執行官薩蒂亞·納德拉在接受媒體採訪時表示,「搜索行業整體目前正面臨巨變。這樣的機會很少會出現。」他稱,這一次,谷歌作為當前領先者的優勢將變得不再那麼重要。
國內的百度、阿里、網易、科大訊飛等也爭相釋出正在研發或即將發布類似產品的消息。還有消息稱,蘋果也將舉行與ai有關的峰會,主題可能就是chatgpt和openai。
3
chatgpt會取代目前的搜索引擎嗎?
實際上,早在chatgpt剛剛出現之時,就有關於其是否會顛覆搜索引擎的討論。2022年12月,摩根士丹利投行的首席分析師布賴恩·諾瓦克就在一份研報中提到,語言模型可能會佔據市場份額,並破壞谷歌作為互聯網用戶入口的地位。
chatgpt是否真的會取代搜索引擎?多位專家對南都·ai前哨站表示,chatgpt的搜索結果還存在很多問題,短期內無法替代搜索引擎。
「以谷歌為例,目前它的信息資源相對來說還是比較精確的,而它也對必應的挑戰做出了相應的回應,推出了自己的聊天機器人brad。」中國社會科學院哲學所科技哲學研究室主任段偉文指出,以chatgpt為代表的對話應用語言模型目前存在著以數據質量問題為代表的種種問題。
「如果語言模型的數據質量很糟糕,或者是數據本身有價值觀問題,比如歧視和偏見,那麼在用戶和人工智慧使用問答方式溝通的時候,由於它的回答是整合之後的,而不是像搜索引擎一樣會呈現多條搜索結果,它帶來的價值觀風險就會更大,可能會出現信息拼湊、編造的問題。」
梁正也指出,在學術研究上,chatgpt對於搜索有增速的作用,可以根據需求和關鍵詞反饋匹配的結果。但他實測發現,chatgpt在專業領域上面臨的搜索難度依舊較大。「它可能會給出來一些不準確的信息,搜索就必須要花更多的時間篩選其給出來的答案。」
今年年初,北美密歇根大學哲學系教授antony aumann就遇到了這個問題:他班上一名學生使用chatgpt寫出了一篇在他看來「全班最好的論文」。最終他決定改變他的課程論文寫作方式,要求學生們使用受訪問限制的瀏覽器,並且在教室里完成初稿。在提交初稿後,學生們還必須解釋每一次修改的理由。
這位教授遇到的問題並非孤例。由於chatgpt帶來了越來越多的學術造假,美國紐約市教育部正式禁用chatgpt,以保護學術誠信。此外,紐約市、巴爾的摩縣、弗吉尼亞州的勞登縣和阿拉巴馬州的蒙哥馬利縣也開始限制學生訪問chatgpt。而全球不少學術期刊出版社明令禁止或者限制其下的作者使用chatgpt,其中包括全球頂尖科學期刊《science》《nature》等等。
此外,chatgpt的回答可能會受到不同地區風俗、文化,乃至於法規的影響。段偉文認為,為了調和不同的價值觀,語言模型的開發者將傾向於迴避矛盾、衝突和分歧,而這可能導致少數群體在客觀上受到忽視。
另一方面,根據用戶實驗和openai的公開資料,chatgpt的訓練數據來自2021年及以往的互聯網數據,具有滯後性。「一個演算法的訓練,不可能是完全開放的、沒有標準的。只有把它做成相對比較封閉的訓練,把訓練數據標準化,訓練效率才高。」 成維忠告訴南都·ai前哨站,這也使得短期內chatgpt難以對搜索引擎造成衝擊。
采寫:南都記者胡耕碩