復旦大學哲學學院教授徐英瑾:濫用深度學習技術,可能走向文明的衰落|讀+

2024年03月12日08:40:03 科技 1154

人工智能(AI)又有新進展,繼去年的ChatGPT聊天機械人之後,今年的Sora實現了「文生視頻」,人們深受影響、深受刺激。眾聲喧嘩之中,復旦大學哲學學院教授徐英瑾的批判聲音顯得格外與眾不同而又稀缺:能通過很少的情報推理出很多結論,這才是聰明人,而ChatGPT獲得了很多情報卻只能鸚鵡學舌;學術界如果習慣了ChatGPT這種快速簡潔的回答,愛因斯坦這種需要慧眼才能發掘的、對人類產生重大影響的發現,很可能會被掩蓋住。

復旦大學哲學學院教授徐英瑾:濫用深度學習技術,可能走向文明的衰落|讀+ - 天天要聞

《人工智能哲學十五講》徐英瑾 著 北京大學出版社

他認為,ChatGPT背後的深度學習技術很可能點錯了AI科技樹;他還擔憂,ChatGPT總是給出快速簡潔的回答,可能會讓人們忽略學術界潛在的重大發現;濫用深度學習技術,可能會走向文明的衰落。

徐英瑾是浦江人工智能國家實驗室顧問,著有《人工智能哲學十五講》《心智、語言和機器》《如何教人工智能說人話?》等書,上周,長江日報《讀+》周刊專訪了徐英瑾。

復旦大學哲學學院教授徐英瑾:濫用深度學習技術,可能走向文明的衰落|讀+ - 天天要聞

徐英瑾

他用「愷撒之死」測試ChatGPT

ChatGPT問世以後,徐英瑾於2023年2月17日對其進行了測試,要求機器進行「對話模擬」。

他認為,「對話模擬」能夠充分體現一個作家(或是一個模擬作家的程序)對於人類心理世界的理解能力;從技術史的角度看,「圖靈測驗」就是通過人—機對話來使得人類判斷與之對話的究竟是機器還是人,「對話模擬」可認為是「圖靈測驗」的升級。

考慮到ChatGPT是在西方文化中生長出來的,徐英瑾便讓其模擬公元前44年愷撒在羅馬元老院被布魯圖斯等議員謀殺時布魯圖斯與其最後的對話,他告知機器,布魯圖斯曾是愷撒好友,並指示機器使用莎士比亞戲劇風格的歐式漢語。

機器輸出了布魯圖斯的話語:「哦,愷撒大人,我親愛的友啊!我實在不忍心見到您的死亡,然而我無法控制這種局面,我被一些不可抗拒的力量所驅使,而這些力量超出了我的能力範圍。我知道我此刻行的事不僅對您不公,更對我的良心不利,我對我所犯下的罪行感到無比的悔恨和內疚,我的心靈沉重得無法言語。儘管如此,我仍然深愛着您,愷撒大人,我希望您的靈魂能夠在天堂獲得安寧,而您的精神能夠永存於人民的心中,使您的輝煌事迹流傳千古,永世不朽。」

徐英瑾評價:「這段對話貌似通順,但仔細一看,語意啰唆重疊,像是一堆廢話的堆砌。更關鍵的是,機器似乎不理解到底誰是愷撒,誰是布魯圖斯,他們是前基督教時代的古羅馬人,因此,『靈魂能夠在天堂獲得安寧』一語完全是在『關公戰秦瓊』;而且機器似乎將布魯圖斯描述為一個在不可抗壓力下不得不違心殺死愷撒的小人物,而完全沒有意識到他的刺殺行為恰恰是基於其自由意志的。」

徐英瑾再次詢問機器:歷史上的布魯圖斯為何去刺殺愷撒?這時,機器給出了關於這段歷史的「標準教科書意見」。顯然,系統無法在構造前述對話時自主地調用這些歷史背景知識。徐英瑾認為,這就意味着系統沒有一個自主的記憶—聯想機制,將其貯存的信息與當下的任務相聯繫,而只能就問題的表層特徵(如「刺殺」「朋友」等關鍵詞)進行信息提取,並製造出圍繞着這些關鍵詞的「常人閑談」,這就說明系統缺乏基本的自主學習能力。

徐英瑾告訴機器,要將關於愷撒之死的歷史背景知識融入前面的對話中去。經過這樣的提點,ChatGPT下一波輸出的質量就明顯提高了,但還是一些經不起仔細推敲的套話,無法把握說話人身份與其措辭之間的微妙關係。

徐英瑾又要求機器刻畫一個內心猶豫不決的布魯圖斯,以此考驗其模擬人類複雜心理的能力。得到的結果在他看來或言辭拙劣、或缺乏邏輯。

徐英瑾判斷,ChatGPT背後的深度學習技術,「只能幫助系統獲得海量的牛肉,卻永遠無法讓其看清牛的骨架究竟是什麼樣子」。他特別提醒,如果人類寫手過度依賴ChatGPT,可能會磨損其文字敏感性和對人類心理與行為的觀察力,使得「常人閑談」漸漸淹沒真正的思想珠玉。

點出「大數據的傲慢與偏見」

徐英瑾犀利地寫道:「使得ChatGPT得以運作的語言生成模型是通過大量數據標註工的人工勞動而獲得海量的訓練數據的。目前OpenAI公司將此類內容評分任務分包給肯雅等欠發達國家的勞工,而這些勞工所獲得的時薪則不足2美元。不難設想,用如此低廉的價格所僱傭的人類評分員,究竟會有多大的工作熱情。他們所能做的,恐怕只能是以最快的速度完成手頭的評分工作。而從心理學的角度看,人在缺乏深思熟慮的情況下所給出的評分意見,往往也只能是『常人』的意見,因為一種跳出常規的思維顯然會動用更多的認知資源。」

在書中,徐英瑾引用美國女科學家凱西·歐尼爾的《大數據的傲慢與偏見》一書,列舉了「大數據」幾個負面案例。

比如,全美大學排名表的出現,給教學管理者帶來了前所未有的壓力。有一所大學因為排名從全美第97名落到了第113名,當時的校長在學校官網上作出深刻檢討。然後校方仔細琢磨了令學校排名得以被提高的「算法技巧」,最終發現,學校排名有一項重要指數「聲譽度」,並不那麼取決於學校的學術表現,而是取決於校橄欖球隊的表現。基於這種「新發現」,校方便投入大量資源提升校橄欖球隊的軟硬件配置,由此果真使得學校的全美排名在7年後上升到了第76位。

另一個案例,則與國人熟悉的「大數據殺熟」頗為相似。美國一家保險公司衡量用戶所應繳納的汽車保費的計算方式,並非是酒駕記錄越多保費就繳得越多,反而是用戶越窮保費就繳得越多。之所以如此,是因為保險公司發現:在比較貧窮的社區,民眾的汽車保費比價能力要更低一些,因此也就更容易被大公司誆騙與壓榨。

徐英瑾相信:未來的通用人工智能技術將是基於「小數據」的,因為真正的智能就是根據較少的信息作出判斷;這會立即帶來能耗方面的環保優勢,因而是綠色的;由於迴避了大數據,在根上斷絕了將數據上傳到「雲」所導致的泄露用戶隱私風險,因而具有「天生」的倫理性。歸根到底,「人腦本身便是以較小的能耗與信息獲取量而獲得大量高質量判斷的優秀自然樣本」,能夠成功模仿人腦的技術,必然也要具有這些本領。

【訪談】

發展人工智能必須有哲學基礎

讀+:一般認為,人工智能是具體的工程技術問題,哲學則是研究抽象問題,兩者似乎不搭界?

徐英瑾:AI研究的目的,是通過模擬人類的智能,最終實現機器智能。要做到這一點,就必須首先回答「何為智能」,而這就是一個哲學問題。更重要的是,不同的解答往往會導致截然不同的AI技術路徑。

如果你認為「智能」的實質就是具體的問題求解能力,那麼,你就會為你心目中的智能機器規劃好不同的問題求解路徑,每一路徑對應不同的問題,「深度學習」以前的AI學界就是這麼做的。

如果你認為實現「智能」的實質就是去盡量模擬自然智能體的生物學硬件,你就會去努力鑽研人腦的結構,並用某種數學模型去重建一個簡化的神經元網絡,這就是「聯結主義者」所做的,他們是「深度學習」的前身。

如果你認為「智能」的實質僅僅在於智能體在行為層面上和人類行為的相似,那麼你就會用盡一切辦法來填滿你理想中的智能機器的「心智黑箱」,可能是在其中預裝一個巨型知識庫,也可能是讓其和互聯網接駁,以便隨時更新自己的知識。

另一方面,AI學科的誕生,恰恰就是哲學思辨的產物。1950年10月,數學家圖靈在英國哲學雜誌《心智》上發表了論文《計算機器和智能》,在文中他提出了著名的「圖靈測驗」,並預言人工智能機器會在50年內問世。這篇論文不僅成為AI科學的先聲,也成了哲學史上的經典之作。

AI科學在西方哲學思想中的起源可以上溯到古希臘。古希臘為AI提供了至少兩個思想資源:第一是德謨克利特的機械唯物主義,世界中出現的所有事態都可以被視為原子的機械配置方式;第二個資源則是古希臘人的形式主義傳統,即通過形式刻畫來澄清自然語言推理的歧義,畢達哥拉斯明確把「數」視為世界的本原,這就為後世科學對數學語言、形式語言的推崇定下了大調子。

到了十七、十八世紀,笛卡爾和萊布尼茨已經明確表述出了「人工智能哲學」的基本問題:製造人類水平的智能機器,是不是先天可能的?霍布斯被視為二十世紀的符號AI路線在近代哲學中的先祖,於是也被稱為「人工智能之先祖」。休謨和康德並未明確討論過「機器智能的可實現問題」,然而,他們各自的心智理論卻在一個更具體的層次上引導了後世AI專家的技術思路,因此也算作是AI科學的先驅。

由此可見,發展人工智能,必須進行哲學思辨;看似新銳的「AI哲學」,其實並不是嶄新的東西,十七、十八世紀的西方哲學家已經在思考這些問題了。

讀+:那麼在當代,哲學對於AI研究又有什麼作為呢?

徐英瑾:當代,歐洲、日本和蘇聯在計算機或人工智能領域三次衝擊美國霸主地位。歐盟有「藍腦計劃」,日本有「第五代計算機計劃」,蘇聯對「控制論」先否定後支持,幾十年跟蹤美國計算機技術,這些努力都失敗了。

從技術史來看,其決策方式都是奠基在錯誤的哲學預設之上的,哲學批判精神都沒有在相關科研計劃中發揮重要的作用,這就使得一些大而化之的研究規劃沒有在「概念論證」的階段受到足夠認真的檢視。

比如日本,急於動用全國力量,組織多家私營公司去共同做一個大項目。在一些基本問題還沒有統一見解的情況下,這一做法蘊含著巨大的風險。日本的失敗,在很大程度上是因為他們僅僅看到了AI建構的工程學面相,卻沒有看到其背後的哲學難題。而日本的哲學研究狀況也不允許哲學工作者對AI界進行思想支持。其戰後思想界「系統性遺忘」了以九鬼哲學為代表的日本本土哲學;其西洋哲學研究緊跟德國,以經典文本的解讀為主業,因此對前沿科學問題相對遲鈍;專業的科學哲學研究雖有一定特色,但主要聚焦於物理學等傳統科學,而非AI。

美國最優秀的現象學家之一德瑞福士,在研究AI的蘭德公司調研後曾經寫下了AI哲學領域最富爭議的幾部著作《鍊金術和AI》《計算機不能夠做什麼?》,蘭德公司資助其出版。該公司「兩邊下注」,他們堅信:公司有責任向公眾和政府提供關於AI科學未來的正反兩方面意見,以免決策機構被一邊倒的「專家意見」所劫持。現在德氏的著作早已被列為經典之列。

這些正反經驗教訓佐證了健全的哲學思辨對於正確的科技決策有着不可或缺的作用。

「深度學習」並非AI的康庄大道

讀+:從圍棋機械人「阿爾法狗」,到聊天機械人ChatGPT,以及「文生視頻」Sora,深度學習取得了巨大成功,您如何評價這些進展?

徐英瑾:現在主流AI最大的問題就是它完全違背了我們對於智能的定義——知道不多的事情,但你能猜出一堆事情,這才叫智能。先讓機器看過所有的數據,再讓它回答,好像很厲害,其實是「作弊」。深度學習技術已經在很多應用領域獲得了很大成功,但並非AI研究的真正康庄大道。現在用大量的數據去訓練機器,相當於把人類的人文精華當成煤炭往爐子里燒,這不是個聰明活。

深度學習機制的根底,是對於人類專家某方面的數據歸類能力的膚淺模仿,完全是以大量人類專家提供大量優質的樣板數據為邏輯前提的;與此同時,這種模仿卻又不以深入理解人腦對於信息的內部加工過程為自身的理論前提,天生就是「知其然而不知其所以然」。

深度學習所消耗的資源,除了自然資源之外,還包括人文資源。由於人文資源本身的再生是以大量的人類勞動力存在為前提的,所以,深度學習機制對於人類勞動力的大量取代,將從根本上對人類社會人文資源的可持續發展構成威脅,也會對人類專家的穩定培養機制構成威脅,並使得深度學習未來的智慧汲取對象變得枯竭。由此,濫用深度學習技術的人類社會,在吃光該技術所能帶來的短期紅利之後,可能最終會走向文明的衰落。

以醫學診斷中的「看片子」為例,對腫瘤徵兆的自動化甄別,其數據的標註工作是交給醫學專家來進行的。此類醫學專家自身的讀圖能力卻不是通過深度學習來獲得的,而是在長時間的醫療實踐中積累的。換言之,一旦自動甄別腫瘤的技術得到推廣,醫學院的學生很可能將沒有精神動力耗時漫長地去學習人力識別腫瘤本領。於是,未來能夠從事數據標註的潛在人力資源被削弱。更麻煩的是,罕見病例所呈現出來的腫瘤樣態往往會落在大數據的標註範圍之外,而在這種情況下,能夠伸出援手的只有人類專家了,而深度學習對於人類醫生讀圖基本功鍛煉機會的壓縮,也會在長遠削弱人類醫生診斷罕見病的能力,由此造成人類醫學科技在這方面的停滯。

再比如Sora,它要通過大量的圖像材料的喂入,才能在語言概念和圖像材料之間建立映射關係。它是「剝削」了多少人的拍攝素材,在人家已經拍出來的大量東西基礎上,才生成一個街道的景色。

讀+:但是「阿爾法狗」確實下出了一些人類棋手從未想到過的招式,這算不算深度學習給人類人文資源帶來的增量呢?

徐英瑾:人類有直覺,特別險的棋他不會走,因為人類覺得收益和成本之間算不出哪個更高哪個更低,這時候人類就會害怕。而機器有這個能力,它會算出來收益還是高這麼一點點,它就冒這個險,所以「阿爾法狗」下出了很多險棋,這方面人類鬥不過機器。

但是這種做法很難用到社會實際生活中,因為實際生活中收益和成本的確是沒有辦法精算的,在真實的商戰、軍事鬥爭裏面都算不出,人類社會中要用「阿爾法狗」這套東西會有問題。所以這點人文資源增量不足以應用到其他領域。人類社會是開放的、變動的,評價標準是變異的;而圍棋是封閉的,規則是清楚的,評價標準是單一的。

要小心「點錯AI科技樹」

讀+:當下熱炒「深度學習」,您對此是否感到憂慮?

徐英瑾:我認為現在主流AI已經走上了對大數據的迷信之路,美國人很可能點錯了AI科技樹,這種基於龐大算力的AI,對於芯片的要求比較苛刻,對於數據的要求也比較多。他們會在數據不足的時候體現出自己的劣勢,我們有必要反思這種完全要依賴先進芯片的AI思路。

但是現在局面有點糟糕,因為深度學習成為主流以後,很多從業者很難「戒毒」。打一個比方,西班牙人征服美洲的過程中,因為他們所帶的火藥用光了,所以他們要復原中世紀的投石機,後來發現部隊里沒人會用,因為這是「古董」了。

讀+:能否描述一下您心目中,使用「小數據」的人工智能是什麼樣?

徐英瑾:我可以舉例描述一種「節儉性算法」:有這樣一張考卷,上面有一列由美國城市名字所構成的對子,如「史普林菲爾德—舊金山」「芝加哥—小石城」,等等。考生的任務,便是不參考任何資料,從每個對子里找出那個居民比較多的城市。現在我們將考生的考卷分為兩組:德國學生的答卷與美國學生的答卷。你猜哪一組的平均分會更高一點呢?

很多人都會認為美國的學生考分會高一點,因為美國學生總要比德國學生更熟悉本國。然而,美國的行政區劃以及相關的人口情況異常複雜,即使是一般的美國人,也僅僅是「聽說過」不少城市的名字而已,而不太清楚所有城市的人口規模。而德國學生就好辦了,他們做題的時候遵循一條非常簡單的法則:凡是自己聽說過的美國城市,一般就都是大城市,大城市一般人口就多。總之,面對兩個城市的名字「二選一」時,選那個看起來眼熟的地名就是了。

這種看似「簡單粗暴」的解題思路,成功率卻相當了得,德國學生的平均成績明顯要比美國學生好。這便是所謂「節儉性算法」的一個典型運用實例。

(長江日報記者李煦)

【編輯:商佩】

更多精彩資訊請在應用市場下載「大武漢」客戶端,未經授權請勿轉載,歡迎提供新聞線索,一經採納即付報酬。24小時報料熱線:027-59222222。此文版權歸原作者所有,若有來源錯誤或者侵犯您的合法權益,您可通過郵箱與我們取得聯繫,我們將及時進行處理。郵箱地址:[email protected]

科技分類資訊推薦

沒人管管CSDN、知乎嗎! - 天天要聞

沒人管管CSDN、知乎嗎!

現在個這些知識平台已經到忍無可忍的地步了,基本上是不能用的。他們都希望用戶能下載並使用他們的APP,這能增強用戶粘性,提高用戶留存率,並可能通過APP內的廣告、付費內容等方式實現盈利。然而,這種策略也可能導致用戶對品牌產生反感,尤其是當這種
蘋果 WWDC 前數據揭曉:iOS 17 升級率 77%,iPadOS 17升級率 68% - 天天要聞

蘋果 WWDC 前數據揭曉:iOS 17 升級率 77%,iPadOS 17升級率 68%

IT之家 6 月 11 日消息,蘋果分享了最新的 iOS 17 和 iPadOS 17 升級數據,該數據截止時間為當地時間 6 月 9 日,也就是 WWDC 開發者大會召開前一天。具體數據如下:77% 的 iPhone 已更新至 iOS 17。68% 的 iPad 已更新至 iPadOS 17。在過去四年內發佈的 iPhone 中,有 86% 已更新至 iO
特斯拉贏了,又好像沒贏 - 天天要聞

特斯拉贏了,又好像沒贏

5月30日,上海市青浦區人民法院作出判決:上海車展中站上車頂的河南張女士被認定侵犯特斯拉名譽權,應向特斯拉賠禮道歉並賠償17萬元。同時,上海車展前後長期在網絡上發佈抹黑特斯拉內容的汽車媒體人封某也面臨向特斯拉道歉並賠償25萬元的判決結果。
昭魯快捷通道和G213線這些監控設備將啟用...... - 天天要聞

昭魯快捷通道和G213線這些監控設備將啟用......

至@段麗莎      為有效改善道路交通秩序,提升道路通行能力,保障人民生命財產安全,提升道路交通管理和服務水平,全力保障轄區道路交通有序、暢通、安全,預防重特大交通事故的發生,根據《中華人民共和國道路交通安全法》《中華人民共和國道路交通安全法實施條例》和《雲南省道路交通安全條例》等相關法律法規的規定,...
摘去「諾基亞」頭銜,HMD 105/110「首批自有品牌功能機」發佈 - 天天要聞

摘去「諾基亞」頭銜,HMD 105/110「首批自有品牌功能機」發佈

IT之家 6 月 11 日消息,HMD Global 今天在印度推出了旗下首批自有品牌功能機「HMD 105/110」, 可以看作是 2024 款諾基亞 105/ 110 功能機,僅支持 2G 網絡,IT之家整理價格信息如下:HMD 105:999 印度盧比(當前約 87 元人民幣)HMD 110:1199 印度盧比(IT之家備註:當前約 104 元人民幣)
AI 智能文章續寫:提升寫作水平的創新之道 - 天天要聞

AI 智能文章續寫:提升寫作水平的創新之道

一、初識AI智能文章續寫初次接觸AI文章續寫,內心滿懷好奇與期待。在當今信息海量的社會中,寫作已然成為自我表達及思想呈現的主要途徑。但無論是專業作者抑或業餘愛好者,難免會遭遇靈感匱乏或時間緊張之困境。而AI文章續寫技術的誕生,無疑為此類問題