人機對齊:破解AI倫理困境的“鑰匙”

近年來,AI人工智能)技術飛速發展,在帶來效率革命的同時,也暴露出隱私泄露、歧視偏見、算法濫用等倫理問題。

當AI在醫療健康領域的應用日益普及,人類能否對其託付生命健康?

近日,健康報記者專訪第十四屆全國政協委員、研究員級高級工程師王江平,請他談談醫療AI存在的倫理風險以及應對策略。

醫療AI可能導致患者權益損害

健康報:在您看來,醫療AI帶來的最大風險是什麼?

王江平:醫療AI帶來的最大風險是可能導致患者權益損害。醫療AI有三大特殊性,每一項都和患者權益息息相關。

一是數據敏感性。患者的生理指標、診療記錄、病史等都屬於敏感信息,直接關聯個人生命權和隱私權。《中華人民共和國個人信息保護法》將醫療數據列為敏感個人信息重點保護。很多患者並不知道自己的醫療數據被用於AI訓練。

二是結果不可逆性。在醫療場景中,AI容易產生“幻覺”,而“幻覺”可能導致誤診甚至危及患者生命。國際期刊《放射學》刊發的一篇研究論文顯示,在磁共振/超聲圖像的閱片分析中,原始放射科醫生與複查放射科醫生的分析達到幾乎完美的一致性,而大型語言模型與人類閱片者的分析僅達到中等程度的一致性,這會對臨床管理產生負面影響。

三是責任主體複雜性。若AI參與決策導致醫療事故,責任主體涉及模型開發者、部署者(醫療機構)、使用者(醫生)等,責任程度難以界定。2024年,歐盟頒布《人工智能法案》規定,以權責清單等形式明確責任判定原則和辦法,避免出現技術出錯、操作失誤、患者買單的困局。這為國內相關實踐提供了參考。

基於醫療行業的特殊性,必須將人機對齊法則深度融入醫療AI。

倫理不是枷鎖而是技術發展的基石

健康報:人機對齊具體指什麼?

王江平:人機對齊就是通過技術手段與倫理框架,讓AI的目標、行為和輸出與人類的價值觀、社會規範保持一致。人機對齊是一項對齊倫理、對齊人性、維護人權的重要科學實踐,是一項涉及技術、倫理、法律的系統性工程,被認為是破解AI倫理困境的“鑰匙”。

健康報:人機對齊法則在醫療場景中能發揮什麼作用?

王江平:第一,可解釋性。對齊的AI能夠清晰展現決策邏輯。例如,上海交通大學研發的醫學影像多模態大模型矩陣“明岐”採用透明診斷艙機制,通過提供影像標記、診斷路徑決策樹、相似病例參考庫三級決策證據,打消醫患疑慮。

第二,信任性。當AI的診療建議與醫學倫理深度對齊時,人類才能對其建立信任,才敢對其託付生命健康。

第三,人類和諧性。目標偏移是AI應用中一種常見且重要的風險。人類設計AI目標時通常無法將真實目標完全、準確地寫入程序,因而AI達成的目標常常會偏離人類的真實需求。比如,醫療AI為提高患者生存率可能忽視治療痛苦,情感陪伴機器人可能導致用戶過度依賴、人際疏離等。人機對齊就是要在算法設計中加入人性考量、目標校準,確保技術真正服務於人類。

健康報:有觀點認為,在發展技術的過程中過度強調倫理規範,可能會限制技術創新。您對此有何看法?

王江平:我認為恰恰相反,倫理不是枷鎖,而是技術可持續發展的基石。人機對齊法則可以推動技術透明化、人本化,更能夠激發技術創新。

在可以預見的未來,將出現某些智力和能力超越人類的“超人模型”,人工智能公司OpenAI提出了弱到強泛化技術,阿里通義實驗室提出了基於辯論驅動的弱監督對齊技術等,這些研究為解決未來“超級對齊”問題提供了可能性。

數據飛輪是人機對齊法則的重要實現路徑

健康報:在醫療領域中,如何實現人機對齊法則的全面滲透?

王江平:關鍵在於技術與管理雙管齊下。具體來說,應從技術架構、數據集建設、醫院管理、患者知情、行業監管五大環節協同發力。

在技術架構環節,要從源頭上注入倫理基因,實現價值觀驅動。在模型預訓練階段,應引入醫學倫理知識圖譜,讓模型優先學習循證醫學指南、臨床診療規範等。在模型微調階段,應通過人工反饋強化學習方法,讓模型適應具體場景的倫理偏好,在給出方案時綜合評估患者年齡、病情、經濟狀況等因素,避免“一刀切”決策。

在數據集建設環節,要充分考量醫療數據格式不統一、多模態混雜、小樣本和高維度數據並存、隱私問題突出等難題。在技術層面,應運用隱私計算技術實現數據“可用不可見”,通過術語標準化打破數據孤島,利用小樣本增強技術解決標註數據不足問題。在機制層面,應設立數據過濾器,自動屏蔽包含歧視、錯誤倫理導向的數據源;建設醫療可信數據空間,推動建立統一數據規則和技術標準,促進合規共享。

在醫院管理環節,在診斷、手術等高風險場景實施“雙保險機制”,如由醫生對AI提出的手術建議實時複核並留存記錄。在健康諮詢、用藥提醒等中低風險場景,可允許AI自主決策,但需嵌入動態監控日誌,記錄交互細節,以供事後審計。同時,應開發可視化工具包,讓醫生快速理解模型邏輯;設立人機協作績效指標,將AI使用規範納入醫生考核體系,避免盲目信任或過度抵觸。

在患者知情環節,應向患者提供“可理解的AI決策報告”,用通俗語言解釋推薦藥物、治療方案的理由;建立“患者一票否決通道”,當患者質疑AI建議時強制切換至人工服務,保障患者的否決權。

在行業監管環節,應建立國家統一的醫療AI人機對齊認證標準體系,由第三方機構開展測評,並作為市場准入前提;常態化開展“紅藍對抗演練”等對抗性測試,模擬罕見病誤診、數據投毒等極端場景,測試模型魯棒性;設立由臨床醫生、AI工程師、倫理學家、患者代表等共同參與的多學科倫理委員會,定期評估模型對齊度;編製《醫療AI人工對齊白皮書》,為開發者、醫療機構等提供操作指南。

健康報:據了解,數據飛輪是人機對齊法則的重要實現路徑。什麼是數據飛輪?如何確保其在醫療行業的有效運轉?

王江平:數據飛輪就是用戶對AI輸出進行標註、反饋,從而實現模型持續優化的閉環機制。數據飛輪不僅是AI技術迭代的引擎,更是人機對齊法則的重要實現路徑。醫療行業有必要引入數據飛輪,通過“模型輸出評估—數據收集—應用反饋—模型優化”的閉環,使醫療AI持續貼近真實醫療需求。

醫療行業的數據飛輪需建立准入機制和激勵機制。建立准入機制的目的是確保數據乾淨合規。醫療數據貢獻者(醫療機構、醫生)需通過倫理審查和資質認證,以避免噪聲數據污染模型價值觀。建立激勵機制的目的是讓數據共享實現“雙向受益”。比如參與數據共享計劃的機構可優先使用定製化AI工具。只有讓數據飛輪在真實醫療場景中持續運轉,才能不斷修正模型偏差,使模型“越用越聰明,越用越可靠”。

需要強調的是,醫療AI應用的終點絕不是取代醫生,而是成為人類可以信賴的“醫療助手”,成為幫助醫生、造福患者的高效工具。

文:健康報記者 寧艷陽

編輯:張昊華 真宇

校對:馬楊

審核:秦明睿 徐秉楠

本文經「原本」原創認證,作者健康報社有限公司,訪問yuanben.io查詢【487G1CZ9】獲取授權