5月15日消息,openai首席科學家雅庫布・帕喬茨基於近日接受了《自然》雜誌的專訪。帕喬茨基在訪談中表示,目前強化學習正在推動ai模型逼近「推理」邊界,agi正從理論走向現實,而開源與安全之間的張力是當前ai發展的一大挑戰。
帕喬茨基預計,未來ai將能夠獨立完成真正具有原創性的科學研究任務,推動軟件工程、硬件設計等多個學科的發展。
以下為訪談內容摘要:
問:目前,科學家們越來越多地使用推理模型。你認為這些模型在五年後會扮演怎樣的角色?
雅庫布・帕喬茨基:現在我們能與模型對話,但它仍然需要持續指導。我認為未來的重大變化之一,就是這一點(指ai作為助手角色)將被根本性地改善。
我們已經看到類似openai 的 「deep research」等 工具(可整合大量信息)在無人監督的情況下,能運行10到20分鐘併產出有價值的內容,而完成這些任務所需的計算資源其實很少。
那麼,如果我們面臨開放性研究問題,花更多算力是值得的。
我相信未來我們將擁有真正具備原創研究能力的ai。我們將在諸如自動軟件工程、硬件組件自主設計等領域取得巨大進展,並擴展到其他學科的類似應用中。
問:在構建openai的推理模型方面,強化學習發揮了多大作用?
雅庫布・帕喬茨基:我們在推理模型方面的最新進展,很大程度上得益於強化學習階段的顯著提升。這一階段不僅幫助我們凝練出更具實用價值的成果,還賦予模型一定的「自主」能力,使其能探索多樣化的思維路徑。
但這也引發一個值得探討的問題:我們是否仍有必要將各個學習階段嚴格區分?
需要強調的是,推理能力並非憑空產生,而是在預訓練模型基礎上逐步演化而來的。在這個過程中,我投入了大量精力去深入研究這一階段,並致力於將不同方法有機融合,探索它們之間的交互機制。
問:談到模型的「思考」問題,你認為模型真的能推理嗎?還是只是近似於推理?
雅庫布・帕喬茨基:模型的運行機制與人類大腦存在本質差異。雖然預訓練模型能夠學習並掌握大量關於世界的知識,但它對自身的學習過程和順序並無認知能力。
儘管如此,越來越多的證據表明,模型確實能夠生成新的見解,甚至在一定程度上具備「推理」能力。雖然這種能力不同於人類的邏輯推理方式,但在效果上,它已經展現出某種形式的思維能力。
問:山姆・奧特曼表示,openai即將發佈自2019年gpt-2以來首個開源模型。關於這個計劃,你能透露些什麼?
雅庫布・帕喬茨基:向研究人員開放模型非常重要,特別是在模型能力快速增強的背景下,我們更需要理解開源部署所帶來的社會影響。但也正因如此,發佈具備開源權重的前沿模型面臨極大挑戰,主要出於安全風險的考量。我們的目標是推出一個在性能上優於現有開源模型的版本,在保證安全性的前提下推動研究生態的發展。
問:你如何定義通用人工智能(agi)?你認為我們什麼時候能實現,或者說,是否真的能夠實現?
雅庫布・帕喬茨基:我對agi的定義,以及對它何時能實現的看法,在過去幾年中發生了顯著變化。
在我上學讀研期間,我曾認為「ai下圍棋」是agi的關鍵里程碑,可能需要幾十年才能實現。但alphago在2016年就提前達成這一目標,令我深感震撼。
2017年我加入openai時,仍然對agi的實現持懷疑態度。然而,技術進展的速度遠超預期。我們在圖靈測試方面取得了顯著突破,在數學和問題解決等核心能力上也不斷進步,我認為這些領域的終極挑戰將在不久的將來被攻克。
在我看來,我認為下一個重大里程碑將是人工智能能夠產生實際可衡量的經濟影響,尤其是原創性研究能力。我們目前正專註於這個方向,並預計在本十年結束前會取得重大突破。
甚至在今年,我預計ai將能幾乎自主地開發出有價值的軟件。雖然它或許仍無法解決重大的科學難題,但距離那一步,已經不遠了。(文/騰訊科技特約編譯 無忌)