ChatGPT,能成為新的「維基百科」嗎?

22 年前,2001 年初,維基百科 wikipedia 橫空出世,在其後的互聯網時代,成為人們獲取知識的重要平台。

但在剛開始,人們對維基「人人可編輯」的組織形式產生過質疑。甚至有電視主持人諷刺其為「wikiality」,即如果在維基百科上編造條目,只要有足夠多的人同意,它就會成為現實。

後來,隨著《自然》(nature)雜誌的調查研究,發現維基百科準確度接近大英百科全書,google 開始把維基百科放到搜索結果的首項,維基社區和內容貢獻者也持續壯大,維基百科用了很多年時間終於取得了公眾的信任。

誕生之初遭到質疑,越來越多人參與去完善,而後平反收到大眾認可,繼而成為日常的工具,這一過程,僅誕生半年的 chatgpt 正在經歷,不僅於此,它還成為了維基百科的挑戰者。

不久前,維基媒體基金會召開 2023-2024 年度計劃的電話會議,會議中提及了 35 次 ai,討論的主題也是圍繞 chatgpt 帶來的挑戰。

但維基百科所擔心的挑戰,並不是被 chatgpt 取代。而是更深刻地考驗:未來的維基百科,會由 chatgpt 來撰寫嗎

維基百科的內容哪裡來的?

要想知道 chatgpt 能否撰寫維基百科,得先知道維基百科目前內容來源於哪裡。

維基百科主要是由來自互聯網上的志願者共同合作編寫而成,任何使用網路進入維基百科的用戶都可以編寫和修改裡面的文章。它是互聯網上一個極大的自由內容、公開編輯、多語言的網路百科全書協作計劃。

截至 2021 年初,所有語種的維基百科條目數量達 5500 萬條,如何確保內容上的準確,全靠維基社群志願者們的篩查。

在 chatgpt 出現前,維基百科已經長期在用 ai 去減少一些人力成本。應用最多的就是把現有條目直接機器翻譯,再由人工編輯校對。

2016 年時,資深科學家 aaron halfaker 開發了一套開源機器學習演算法,可以自動識別維基百科裡那些惡意破壞條目和編輯假消息的行為;2020 年,mit 的研究人員也為維基百科推出過基於 ai 的修改功能,可以精確定位維基百科句子中的特定信息,並自動替換為類似於人類編輯的語言。

wikipedia 關於 chatgpt 的頁面|wikipedia

以及如維基社群所述,人工智慧非常擅長總結把一篇很長的技術類條目,總結成兒童都能理解的版本,讓 ai 去生成兒童版的維基百科效果很好

翻譯、檢查、概括簡化已有內容,維基百科一直以來對 ai 的應用僅限於此,直到大型語言模型 chatgpt 的出現。

目前仍以文字方式交互為主的 chatgpt,除了回答用戶直接的提問以外,還可以用於甚為複雜的語言工作,包括自動生成文本、自動問答、自動摘要等等。

chatgpt 可以寫出相似真人的文章,並在許多知識領域給出詳細和清晰的回答。哪怕 chatgpt 生成內容的事實準確度還需要人工去二次查閱,但這時維基百科面臨的問題已經很明顯了:志願者能否用 chatgpt 來撰寫維基百科條目?

能不能和想不想

紐約市維基媒體分會的老維基人 richard knipel 就用 chatgpt 在維基百科上起草了一個名為「藝術作品標題」的新條目,knipel 表示,chatgpt 給出的版本一般但語法正確,定義了藝術作品標題的概念,給出了從古至今的例子。他在草稿基礎上只做了輕微修改。

但另一位編輯在條目上標註,將會進行大量修改並完善。如今,我們再點進這一條目,會發現它增加了大量內容和理論索引,還梳理出了目錄,給出了圖片案例。像 knipel 這樣的維基人認為,chatgpt 可以作為生成維基百科條目草稿、骨架的工具,在此基礎上,人工再驗證內容,編輯和充實條目

但另一派維基人則認為,在維基百科條目的創作里 chatgpt 應該完全被禁用。一位維基百科編輯就表示「我們應該強烈呼籲不使用 ai 工具來生成條目草稿,即使這些條目隨後會被人工審閱。chatgpt 太擅長引入那些看起來很有道理的謊言。」

chatgpt起草,人工簡單編輯的版本|wikipedia

人工大量干預後產生的版本|wikipedia

但另一派也反駁這種說法,就像 knipel 認為,修改並豐富不完善的信息,這就是維基百科在實踐中一直運作的方式。chatgpt 將繼續存在並飛速發展,利用它同時強調人工干預的必要性怎麼就不行呢?把 chatgpt 上來就視作洪水猛獸實在有些偏頗。

但在想不想之前,我們先看看能不能。chatgpt 還夠不夠格直接編寫維基百科呢?

3 月 30 日時,維基百科創始人 jimmy wales 在接受 evening standard 採訪時討論了這個議題。wales 認為,讓 chatgpt 能獨立寫一個完整的維基條目,目前還有一段距離,但距離多遠就難說了。「chatgpt 的一大問題是會胡編亂造,業內把這種情況稱為 hallucinating(幻覺)——我稱之為編瞎話。」(one of the issues with the existing chatgpt is what they call in the field 『hallucinating』—i call it lying.)

「chatgpt 有一種憑空捏造的傾向,這對維基百科來說真的不太行。」wales 在採訪里說道。實踐中也是如此,你在維基百科上搜一個詞,維基百科可能會反饋「該條目不存在」,但你問 chatgpt,它可能會給你生成一段沒由頭的假消息。

chatgpt 會「說瞎話」,這種事已經不新鮮了。但 chatgpt 誕生僅半年,它的自我迭代能力已經令人咋舌,讓 chatgpt「句句吐真言」,似乎只是時間問題,那維基百科現在擔憂的是什麼呢?

人力有限,算力「無限」

維基百科團隊並沒有那麼擔心內容到底來源於人類還是 ai,它擔心的是內容質量是否過關。

在維基媒體基金會在電話會議總結報告里,「挑戰」被放到了開篇,其中最大比重的部分,也是維基百科團隊最大的擔憂在於:維基百科湧入大量 ai 生成的內容,把真正高質量的、正確的信息給淹沒了

「wiki 項目有大量高質量的、可靠的,結構化的、分類好的內容。這就是我們帶給世界的價值。最讓我害怕的不是人們使用 gpt 之類的大語言模型來獲取知識,而是需要巡查的 ai 生成的內容會爆炸式增長。

對高質量內容來說,創作比消費的時間成本高很多,就像一篇較為完整的維基條目,需要許多人參與撰寫,花許多時間,走過很多流程後完成,對讀者來說幾分鐘就閱讀完了。

像維基百科這種平台,為了保證內容質量,還需要專業人士核查一條條目中每個信息、數據、引用是否來源準確,篩查和編輯的成本同樣很高。因此 ai 生成內容越多,人工核查的時間也更長。而且哪怕 chatgpt 給出了正確的結論,但它並不會直接給出結論的論據來源何處,人工還需要再找到論據。到最後,修正可能比撰寫耗時更長

wikipedia 的條目下會有很多延展閱讀鏈接|wikipedia

目前維基百科志願者們已經發現了許多 chatgpt 自動生成內容上的問題。比如 chatgpt 很容易太籠統地概括定義,導致表意不明。還有 chatgpt 遣詞造句過於肯定,不夠匹配維基百科想呈現的客觀中性的文字風格。