“AI教父”為發展 AI 而後悔,警告:AI可能變得比人類更聰明

如果人類和ai最終走到兵戎相見,上演《終結者》戲碼的那一步,那麼被譽為“深度學習之父”的geoffrey hinton(傑弗里·辛頓)無疑是約翰·康納一般的角色——在電影里,他是人類反抗“天網”的領導人。

據多家媒體報道,被稱為“人工智能(ai)教父”的傑弗里·辛頓周一證實,他已經從工作了十餘年的谷歌離職,現在可以暢談ai可能帶來的風險。

在接受媒體採訪時,他表示,“我對我畢生所研究的東西感到後悔了。”傑弗里形容稱,ai聊天機器人所帶來的某些危險“相當恐怖”。

報道稱,開發出了被認為是當代ai基礎系統的傑弗里已經正式加入了“ai批評者”的行列。

為發展 ai 而後悔

據了解,辛頓以前在谷歌參與了alphago人工智能項目,該項目獲得了巨大成功,以在圍棋比賽中打敗人類世界冠軍聞名。

辛頓在接受採訪時稱,他離開谷歌的原因,是因為他越來越擔心人工智能可能帶來的問題,特別是當它被用於武器開發和警察監控等領域時。他表示,目前,每個工程師都更關注如何使ai變得越來越厲害,而不是考慮它如何適應社會和環境。他強調了建立一個可信、公開和透明的機制的重要性,以確保ai被正確監管和控制,以發揮其潛力和減輕其負面影響。

在接受《泰晤士報》採訪時,辛頓表示:

ai會替代很多現有的工作崗位,創造一個讓人們不知道什麼是真實的世界。並且,ai的進步速度遠遠超過了包括他在內的很多專家的預期。

辛頓說:

“以前人們覺得ai變得比人類聰明的事情可能要30至50年才能實現,不過顯然,現在我認為這一切可能發生得更快。”

現階段,辛頓里最擔心的就是通過利用ai,網絡上會出現很多虛假的圖片、視頻和文字,這可能讓人分不清真假。其次,他還擔心ai將改變整個人類就業市場,可能導致如律師助理、私人助理、翻譯等崗位的消失。在未來,辛頓擔心ai會對人類構成威脅,“因為ai可能通過大量的數據和分析,出現一些令人意想不到的行為。”辛頓解釋道。

辛頓補充稱,一些公司和個人已經允許ai寫代碼,甚至自主運行代碼。“我擔心未來類似於‘殺人機器人’的自動化武器可能成為現實。”辛頓進一步表示,“很難想象你能如何阻止壞人利用它做壞事”。

據了解,此前在被問及“ai會不會被用於危險技術”時,傑弗里回答稱“你可以試試看”。而現在,他不會再這麼說了。

值得注意的是,辛頓不是第一個對ai發展提出警告的人,自從 openai 在 3 月份發布了最新版 chatgpt-4 模型後,包括特斯拉創始人馬斯克在內的近千名科技界知名人士,簽署了一封公開信,稱希望世界領先的人工智能實驗室暫停開發六個月,因為最近的人工智能最新進展“對人類社會造成潛在的威脅”。這封信的發布時間,正好是在馬斯克創立的人工智能研究公司openai發布了chatgpt的最新版本gpt-4兩周後。而該款人工智能軟件,是人類社會迄今為止發布的最強大的人工智能系統。

此前,辛頓沒有在這兩封信上簽名。他說,在辭職之前,他不想公開批評谷歌或其他公司。上個月,他通知公司他將辭職。周四,他與谷歌母公司 alphabet ceo 桑達爾・皮查伊 (sundar pichai) 通了電話。他拒絕公開討論與皮查伊談話的細節。

此外,美國參議院多數黨領袖舒默近期發起一項針對人工智能的治理框架,並聘請了頂尖的人工智能專家進行諮詢。該計劃將側重於建立人工智能系統的透明度,並要求獨立專家在公開發布之前測試人工智能技術,並要求披露參與技術開發的人員、地點和方式。

谷歌也已經發布了一份概述“監管人工智能建議”的文件,並提出“社會必須迅速適應監管、建立起懲罰濫用人工智能行為的法律和各國之間的條約,以確保人工智能對世界安全,並確保與人類價值觀保持一致的規則”。