【博評】無雙直傳:由AI決定生死有否違反醫療倫理?

2025-11-10 12:59:12 最後更新日期:2025-11-11 08:54:04
無雙直傳

學研社成員,著有《全球化多面體:我們如何面對》一書。生於政治家庭,由細到大經歷無數次大、小選戰,由派傳單、貼海報到運籌帷握,決勝帷幕之內。深感大江東去,浪淘盡,不如神遊張家界。既厭倦政治,又離不開政治。閒時只好提筆論政,如風花雪月。

9977a80cce6b49708bfdd9756e76c1b4tplv obj(圖片來源:MIT科技評論)

近日,香港有一受歡迎的港產動畫《世外》上映,同先前的電影《破地獄》一樣都是在訴說著生死故事,似乎香港人對生死議題十分關注。故事發生在死後與轉世之間的幻想領域:「世外」,靈魂引導者小鬼引導少女投胎轉世,在引導的歷程中,原本沒有人性的小鬼開始理解人類感情,並受女神之命幫助少女,防止她變成怪物。

目前AI科技一日千里,逐漸介入人類的生活,那會否有一日AI會成為靈魂的引導者,決定我們的生死呢?而近日真有一則關於AI的新聞是和決定生死有關:美國有科學家正研究以AI幫助無法表達的臨終病人做「臨終決策」。

華盛頓大學醫學中心的創傷科科學家艾哈邁德(Muhammad Aurangzeb Ahmad),正在研究使用AI來協助家屬、醫生及倫理委員會做出合乎病人價值觀和目標的臨終決策,並在美國一家醫療機構進行AI代理的試點研究,這在美國的醫療界產生一定爭議 [注1-4]

賦予AI在臨終決策中代病患決策,是一個充滿倫理挑戰的前沿議題,它不僅涉及技術上是否真的可以代表到臨終病人的意願,而且觸及了生命尊嚴、人類的自主性以及醫療倫理。

核心倫理爭議

首先,筆者想從倫理角度,系統性地剖析這個問題。AI介入臨終決策,主要引發了以下幾方面的倫理擔憂:

尊嚴與的維度
AI的決策依賴資料,這可能導致將活生生的人簡化為資料檔案自我datafile self。例如,患者「臥床後感到無用」的複雜情感,若被系統簡單標記為「抑鬱風險」,就剝離了其特有的生命背景和敘事,構成了一種「透明暴力」。臨終關懷中重要的不僅是說什麼,更在於那些無法言說的沉默、情感的細微之處以及陪伴本身,這些都是「人類的獨有情感」,當前演算法難以理解和處理的。

自主性與同意的挑戰
表面上,AI是為了更好地貫徹患者的「自主意願」,但問題在於:

  • 意願的動態性:人的醫療偏好並非一成不變,可能隨著病情、認知和處境而改變。
  • 被製造的意願:如果AI的預測基於不具代表性或有偏見的資料,它給出的可能是一個被演算法製造放大的傾向,而非患者真實的意願。
  • 真正的知情同意:在生命終點,基於AI預測所做的決策,其有效性是模糊的。
  • 演算法偏見與公平性
    AI模型的訓練資料至關重要。如果資料本身隱含了對特定年齡、種族、疾病或社會經濟群體的偏見,AI的預測就可能延續甚至加劇醫療決策中的既有不公。對於無法溝通且沒有親屬代為表達的患者群體,由於無法驗證其「真實意圖」,評估和糾正AI模型的偏見將變得尤為困難。特別是一些無家可歸,沒有親人的病患,沒有人為他們質疑AI的決定,這會否導致到嚴重的人權問題?
  • 責任與決策主體模糊
    當AI的建議導致不良後果時,責任應由誰承擔?是演算法的開發者、部署的醫院、使用的醫生,還是認可建議的家屬?AI的介入可能使原本應由人類承擔的道德責任變得模糊和分散。同時,過度依賴AI也可能導致醫護人員臨床判斷能力和道德敏感性的退化。而且,AI的決策有可能對醫生和家屬做成決策壓力,影響了他們的決策判斷。

倫理原則和AI臨終決策的張力

在上述爭議中,幾個核心的倫理學原則相互交織並存在張力:

  • 生命尊嚴原則:這要求超越純粹的生物生命,將尊嚴視為與個人敘事、關係和象徵意義相關的整體。AI的挑戰在於,它可能因過度關注資料而忽視了對整體尊嚴的維護。生命尊嚴是每個人因其生命的存在而固有的價值與應受尊重的權利,不論其健康、能力或社會地位,更不只是一堆數據,可以慨說。
  • 尊重自主原則:這是現代醫學倫理的基石。AI的目標本是延伸患者的自主性,但風險在於可能異化為用技術預設的路徑取代了患者在具體情境下的真實選擇
  • 不傷害與行善原則:AI預測的初衷是避免無意義的痛苦,符合「不傷害」;並促進患者的最高利益,即「行善」。但當演算法存在偏見或誤差時,其建議可能恰恰帶來了傷害,並違背了患者的最大利益
  • 親屬主義爭議:即「為你好」而代替患者做決定。雖然AI可能提供更「理性」的預測,但若以此為由剝奪家屬和醫生在具體情境中基於愛和關懷的判斷權,則構成了強親屬主義,在倫理上是成問題的。

1391c91e618e4151947b654ea6ef6d2b2023年上映的《流浪地球2》也有一段探討「數字生命」的劇情:在實施將整個地球連同人類遷移離開太陽系之前,有科學家提出另一個將人類文明永續的方案,就是建立「數字生命」系統,將人類的意識通過技術手段上傳到計算機網絡中,使其存活於雲端,只需要一台台服務器,從此人類就能成為靈魂永生的「數字生命」。它比AI更上一層,因為即使能演化出自我意識的AI也還只是人類的複製品,而比人工智能更智能的,只能是人類本身。電影在最後也給「數字生命」的構想一個答案:「沒有人的文明毫無意義」。(圖片來源:搜狐

構建倫理框架使用AI

面對這些挑戰,我們需要一個多維度的框架來引導AI的負責任應用:

  • 術維度:可解釋性與透明
    AI不應是一個隻給出結論的「黑箱」。其決策必須對人類可解釋,清晰地展示推理依據和不確定性。此外,系統應接受嚴格的獨立審計,以識別和糾正偏差。
  • 制度維度:審查與監管
    任何此類AI的應用都必須經過倫理審查委員會(IRB)的嚴格批准與持續監督。必須明確,AI的角色是輔助而非取代人類決策者。在法律層面,也需要釐清各方的責任邊界。
  • 文化維度:對話與教育
    技術的應用離不開社會文化的土壤。我們應鼓勵患者、家屬和醫護人員就生命末期偏好進行開放的早期對話。同時,推動公眾理解AI在此領域的能力與局限,避免因誤解而產生過度依賴或盲目拒絕。

大台電視劇《巨塔之后》,宣萱所演的董一妍醫生,在醫院的權鬥過程中,找到她同為醫生丈夫生前的筆記,明白到「他想他的病人知道,世界上至少有一個人會盡力同他打好這場仗」,重新喚醒她行醫的初心。而在大結局的最後一集,劇中該私營的醫學院最後亦成功成立,在開幕禮上,宣萱所演的董醫生向醫學院學生們解釋成立私立醫學院的意義,就是以免過度密集的工作,使醫者變得麻不仁,忽視了照顧病人的體驗、心情和感受,教會學生們不要忘記以病人為中心。

醫生是絕望病者的精神支持,是他們,甚至亦是病患家屬的希望,這種人與人之間的信任關係,不是AI可以代替。當然,失去了初心,就算沒有AI也可變的麻木不仁,所以最重要的是如何在醫療倫理上,本著人本主義精神使用AI。

在臨終決策這一人類最脆弱的時刻,又或在醫療服務上,AI的潛力與風險並存。我們或許應追求這樣一種未來:AI負責處理資料,揭示模式;而醫護者負責理解語境,詮釋意義,並承擔關懷的責任。真正的挑戰不在於讓AI更好地敘述,而在於確保我們作為人類的醫護者,永不停止傾聽——傾聽患者的故事、以及其中蘊含的獨特價值。

祝願大家都不會忘記自己的初心,送給大家這首歌:

本文作者:無雙直傳(劉礎慊),學研社成員,法學(國際關係)碩士,著有《全球化多面體 我們如何面對》一書 

參考資料:

1. 當你臨終無法說話,AI 能幫忙做「生死決策」?科學家正在研究 | TechNews 科技新報 2025-10-26

2. 互聯網賦能下的臨終關懷現實困境與優逝倫理風險|醫學與哲學  劉彥權 倪進東 沈建箴 張敬東 2025-11-5

3. AI智能體能否幫助決定患者生死?|至頂網 2025-10-21

4. AI 或成臨終時決策輔助工具 協助瞭解無法溝通的病人意願|unwire.hk 2025-10-26

發佈於 博評
By 2025-11-10

手機分享本文: