OpenAI 正在資助一項「人工智能道德」的學術研究

站長之家(chinaz.com) 11 月 24 日消息:openai 正在資助學術研究,探索能夠預測人類道德判斷的算法。

根據向美國國稅局(irs)提交的文件,openai inc.(openai 的非營利機構)披露,它向杜克大學研究人員提供了一筆資助,用於一個名為「研究 ai 道德」的項目。根據一份新聞稿,這筆資助是一個更大規模的三年期項目的一部分,總金額為 100 萬美元,旨在支持杜克大學教授研究「構建道德 ai」。

關於 openai 資助的這項「道德」研究,目前公開的信息很少。已知該資助將持續到 2025 年。杜克大學的實用倫理學教授、項目首席研究員沃爾特·西諾特-阿姆斯特朗(walter sinnott-armstrong)通過電子郵件告訴《techcrunch》,他「無法談論」這項研究內容。

西諾特-阿姆斯特朗和該項目的共同研究員賈娜·博格(jana borg)發表了多篇關於 ai 在道德指導方面潛力的研究,併合著了一本書。他們曾參與開發一種「道德對齊」算法,用於幫助決定腎臟移植接受者,並研究了人們在何種情況下更願意讓 ai 做出道德決策。

根據新聞稿,openai 資助的研究目標是訓練算法,在醫學、法律和商業等領域,預測人類在「涉及道德相關特徵衝突」的情境下的道德判斷

然而,像道德這樣複雜的概念是否能被當今技術所掌握,仍然存在很大爭議。

2021 年,非營利機構艾倫人工智能研究所開發了一種名為 ask delphi 的工具,旨在提供符合倫理的建議。它在處理基本道德困境方面表現尚可,例如能夠「知道」作弊是錯誤的。但只需稍微改寫問題,delphi 就可能認可幾乎任何行為,包括窒息嬰兒。

這與現代 ai 系統的工作原理有關。

機器學習模型本質上是統計工具。通過對來自網絡的大量數據樣本進行訓練,它們學習這些樣本中的模式,並據此作出預測。然而,ai 並不具備對倫理概念的真正理解,也無法掌握影響道德決策的推理和情感。

這導致 ai 往往反映發達國家的價值觀,因為網絡內容和訓練數據主要由這些視角主導。因此,ai 的回答並不能反映許多人的價值觀,特別是那些未通過網絡表達的人群。此外,ai 還會吸收多種偏見。例如,delphi 認為異性戀比同性戀更「道德可接受」。

openai 及其資助的研究團隊面臨的挑戰在於,道德具有極大的主觀性。哲學家們數千年來一直在爭論各種倫理理論的優劣,至今沒有普遍適用的框架。

claude 傾向於康德主義(注重絕對道德規則),而 chatgpt 稍微偏向於功利主義(優先考慮最大多數人的最大利益)。究竟哪種更優越?答案因人而異。

要開發出能夠預測人類道德判斷的算法,需要綜合考慮這些因素。這是一個極高的挑戰——即使假設這樣的算法能夠實現。

但如果能做到這一點,其影響可能是深遠的,它將影響我們如何在道德決策中信任機器。目前,世界可能要等到 2025 年,也就是這項基金結束時,才能知道這個「人工智能道德」項目是否取得了突破性進展。