chatgpt和其他人工智能模型是否會威脅人類?圖片來源:cfoto/future publishing via getty images
近幾個月,新人工智能模型的快速興起,例如openai的chatgpt等,讓一些技術專家和研究人員開始思考,人工智能的能力是否會很快超過人類。openai的前關鍵研究人員表示,這種未來極有可能發生,但他也警告說,達到人類水平或者超人類水平的人工智能控制甚至消滅人類的幾率並非為零。
openai的前安全團隊語言模型對齊主管保羅·克里斯蒂亞諾在4月下旬接受了科技播客bankless的採訪。他表示,最擔心的情況是「成熟的人工智能掌控人類」。他在採訪中警告道,高級人工智能有相當大的機會,在不遠的將來引發可能會導致世界毀滅的大災難。
克里斯蒂亞諾說:「總體而言,在人工智能系統達到人類的水平之後,我們有超過50%的概率很快遭遇末日。我認為人工智能有10%至20%的概率,造成許多甚至大多數人類死亡,並接管人類。」
克里斯蒂亞諾於2021年從openai離職。他在由人工智能研究人員埃利澤·尤德考斯基創建的社區博客網站lesswrong的《ask me anything》欄目里解釋了自己離職的原因。尤德考斯基多年來一直警告超人類人工智能可能毀滅人類。克里斯蒂亞諾當時寫道,他希望「研究人工智能對齊方面的更多概念性/理論性問題」,人工智能對齊是一個人工智能安全研究子領域,旨在保證人工智能系統符合人類的利益和道德準則。他表示,在這方面的研究中,openai「並非是做得最好的」。
克里斯蒂亞諾目前經營一家非營利組織alignment research center,致力於研究理論上的人工智能對齊策略。最近幾個月,隨着各大公司競相推出日益複雜的人工智能模型,這個領域的研究引起了極大關注。今年3月,openai發佈gpt-4,對驅動chatgpt的人工智能模型進行了更新。chatgpt在2022年11月才公開發佈。與此同時,谷歌(google)、微軟(microsoft)等科技巨頭展開了人工智能軍備競賽,紛紛發佈了支持商業應用的人工智能模型,希望在這個新興市場里佔據一席之地。
但目前公開發佈的人工智能系統依舊存在大量錯誤和虛假信息,因此克里斯蒂亞諾和許多專家都警告不要操之過急。openai的聯合創始人埃隆·馬斯克在2018年與該公司分道揚鑣。今年3月,包括馬斯克在內的1,100名技術專家發表公開信,呼籲比gpt-4更強大的高級人工智能模型的開發工作應該暫停六個月,並將研究重點重新轉向提高現有系統的可靠性。(之後,馬斯克宣布將推出truthgpt,與chatgpt競爭,他表示truthgpt將致力於「尋求真相」,而不是獲取利潤。)
公開信中擔心的問題之一是,現有人工智能模型可能為超級智能模型鋪平道路,而這種模型可能威脅人類文明。雖然chatgpt等現有生成式人工智能系統有能力完成特定任務,但它們距離達到人類的智力水平仍然有很大差距。這種未來可能出現的人工智能被稱為通用人工智能(agi)。
專家們對通用人工智能發展的時間線存在分歧,有專家認為通用人工智能的發展可能需要數十年時間,但也有專家表示通用人工智能永遠不會誕生,然而,人工智能的飛速發展開始改變人們的立場。斯坦福大學(stanford university)在今年4月發佈的一份研究報告顯示,約57%的人工智能和計算機科學研究人員稱,人工智能正在快速朝着通用人工智能的方向發展,有36%的受訪者表示將重要決策交給高級人工智能來完成,可能給人類帶來「核爆炸級別的大災難」。
有專家警告道,即便更強大的人工智能在開發時是中立的,一旦被心懷不軌的人利用,它可能立刻變得非常危險。谷歌的前研究人員、被稱為「人工智能教父」的傑弗里·辛頓在本周對《紐約時報》(new york times)表示:「我們很難找到阻止不法分子利用人工智能作惡的辦法。我認為,在確定能否控制人工智能之前,不應該繼續擴大其規模。」
克里斯蒂亞諾在接受採訪時表示,如果人工智能發展到人類社會缺少了它就無法正常運轉的程度,那時人類文明就將面臨威脅,如果有強大的人工智能決定不需要再為創作者的利益服務,人類就將變得極其脆弱。
他說:「人類滅亡最有可能的方式並非人工智能突然殺死所有人,而是我們大量部署人工智能,讓它變得無處不在。如果出於某種原因,這些人工智能系統試圖殺死人類,它們就一定能夠做到,但願這種情況不會發生。」
不過,也有人反駁了對人工智能的這種解讀。有專家認為,雖然被設計用於完成特定任務的人工智能必然會出現,但由於計算機在解讀生活經歷方面的局限性,開發可以與人類匹敵的通用人工智能,在技術上不具有可行性。
對於最近對人工智能的可怕警告,創業者和計算機科學家佩里·梅茨格在今年4月發推文稱,雖然「高度超越人類的」人工智能可能會出現,但通用人工智能發展到能夠反抗創作者的程度可能需要數年甚至幾十年時間,而它的創作者將有時間調整人工智能朝着正確的方向發展。對於梅茨格的推文,紐約大學(new york university)的計算機科學家楊立昆(yann lecun)寫道,通用人工智能在一夜之間具備危險的、不受控制的能力,這種宿命論的情景「根本不可能發生」。楊立昆自2013年開始主持meta的人工智能研究。(財富中文網)
翻譯:劉進龍
審校:汪皓