摘要
本文闡述了對人工智慧的信任跨足於臨床醫生、人工智慧應用和人工智慧從業者之間的關係,其中對於醫療問題的自由裁量權係凌駕臨床醫生而寄與人工智慧。比較過最近文獻中的其他描述,此處更充分地解釋從業者在邀請臨床醫生對人工智慧的信任時所做出的規範性承諾。為避免對人工智慧應用本身做出信任,作者概述了人工智慧從業者通過人工智慧應用行使自由裁量權的簡化觀點。最後,作者按照自由裁量核查提出了四個關鍵問題,以確定對特定人工智慧應用的信任是否合理,並簡要討論醫生的主要角色可能被人工智慧取代的可能性。
Keywords:Artificial intelligence, Trust in AI, Discretion, Normative expectations, Future of medicine. 人工智慧、對人工智慧的信任、自由裁量、規範期望、醫學的未來。
volume 24, Article number:7(2022)
https://link.springer.com/article/10.1007/s10676-022-09630-5
DOI: https://doi.org/10.1007/s10676-022-09630-5
註:此譯文並未涵蓋該文全部事項,相關內容務須參閱各項資料、文獻最新版次。此處係閱讀隨筆,僅供個人學習,非供印刷或潛在意圖出版。引用時請予註明。
介紹
醫療人工智慧(AI, artificial intelligence)各種應用不僅是演算法和資料流。而是專業使用者和社會技術嵌入的結合介面。人工智慧應用得以運作依賴此種嵌入(范德波van de Poel,2020,第 391 頁)。正如泰迪 Taddy 爭辯:「人工智慧系統的成功或失敗是在特定的背景環境定義的,你需要使用該背景環境結搆以指導你的人工智慧的層次架搆」(2019,第 65 頁)。在醫學領域,人工智慧應用的臨床確證必須在現實世界環境中展現(納根德朗Nagendran 等人,2020)。正如 杜蘭Durán 和 勇斯麻Jongsma 觀察到的,「醫學中的演算方法應該理解為提供臨床決策輸入,但它們無法自行決定如何鑑於結果採取行動」(2021 年,第 333 頁)。人工智慧應用包含演算法和介面,由臨床醫生賦予權限。它本身尚不宜做出決定,但它可以強烈地影響做出決策。當以此方式用於臨床決策支持工具時,人工智慧應用以結搆化方式嵌入臨床醫生的工作。舉例言之,它們可能被設計為根據組織前後環節中的可行情況將患者標記為高風險,並預計在某個比例的病例中採取額外的臨床措施,例如與患者討論干預措施(加拉格爾Gallagher 等人, 2020)。本文作者認為基於對人工智慧應用運作的合理預期而賦予人工智慧應用的自由裁量權是一種重要類型的信任。
最近,若干哲學家批評醫療人工智慧的信任觀念。此等批評不僅否認吾人得以嚴肅地信任人工智慧(瑞安Ryan, 2020;沃芬斯柏格Wolfensberger & 瑞格理Wrigley, 2019),而且還認為吾人不應當如此做(哈瑟利Hatherley, 2020;瑞安Ryan, 2020;塔蘭特Tallant, 2019)。按照此等批評,真正的信任是一種人類人際概念,取決於豐富的情感和規範態度。它不能嚴肅地套用在醫療人工智慧,因為奠基的技術不具備支持這些態度所必需的特徵。此外,它不應該應用於醫療人工智慧,因為如此做將在合乎法律信任至關重要的領域中導致毀損形式的信任。恰當地說,只能「依賴」醫療人工智慧,但不能「信任」它。
以前對人工智慧信任的防衛辯護採用信任的非規範概念。費拉里奧等人 (2020a) 聲稱基於「簡單」的信任理念,涉及減少對人工智慧產出的監督和控制。本文作者採取了不同的方向,認為現下對人工智慧應用有更強的信任理念,包括賦予其自由裁量權,即某種規範性權力。與前引簡單的理念相比,此等更強且自由裁量的理念,更大程度上解釋了為什麼吸引使用者信任牽涉多項倫理承諾。當人工智慧的設計者和部署者邀請使用者信任人工智慧應用所服務的某個既有的醫療目標時,例如做出治療的決定 ,他們因此擁有回答背景環境的醫療問題的自由裁量權。如果沒有強健的信任理念,吾人就無法陳述這個故事。此種形式的信任是否可以簡化為對人工智慧應用的工程師和部署者的信任,作者保留開放態度。為了將其保持為一種無定論的選項,作者在「對人工智慧從業者的信任」章節勾畫了一個在哲學意義上可行的對人工智慧信任的縮減式核查。
此種核查的理論背景是一種實用形式觀點,即吾人如何定義信任等概念,部分取決於該概念的敘述式價值(麥克勞德McLeod, 2002;尼克Nickel, 2017)。人際間的信任通常解釋為獨特的合作模式,以及伴隨這些模式而來的倫理承諾事項。信任標示着一種獨特方式採用和涉及技術事項,如:自動化、機器人和人工智慧等,並標示着設計和部署此等事項的人所承擔之倫理承諾。
人工智慧的信任之批評
最好先總結一下近來關於醫療人工智慧信任的哲學文獻以期有所幫助。根據最近的一些批評事項,信任人工智慧並不合適,因為將不可能的特徵事項歸因於人工智慧。一個典型的批評由瑞安(Ryan, 2020)提出,他認為真正的信任必須是規範性的或情感性的,而不僅僅是理性的或計算性的。從規範性的角度來看,信任的某個部分係指一個人看待信任對象所應達到某些標準或履行某些承諾事項的規範期望。信任態度包括將規範性的代理和責任歸因於所信任對象。從情感性觀點,信任將某個善意的動機歸因於其對象,因此認為其實際所依賴的對象做出情感性和動機性的反應。無論在規範性還是情感性觀點的信任,人工智慧都不具備支持歸屬規範性代理或良意的特徵;一個跡象是吾人不情願地說人工智慧可能會背叛那些依賴它的人(出處同上,2757)。瑞安Ryan 強調了信任人工智慧的錯誤本質:將人工智慧擬人化本身並不正確,及責任歸屬的負面後果。對人工智慧的信任有害地混淆責任問題:「信任的規範性核查要求倫理代理者對其行為負責」(出處同上,2762)。所涉及的具體錯誤是將責任歸咎於人工智慧,因為這「不恰當地提升了人工智慧,同時否認了開發和實施人工智慧的人的責任」(出處同上)。
哈瑟利(Hatherley, 2020)提出了一個具有類似前提的論據,宣稱人工智慧只能可靠但不可信賴,因此值得信賴的人工智慧是誤解的概念。然而,與瑞安(Ryan)的論點不同之處,哈瑟利強調,對醫療人工智慧的信任有可能替換醫生執行的關鍵任務事項而「取代人類臨床醫生的認識(某事的)權威性」(第 478 頁),從而使患者和醫生之間的信任關係曝露于風險中。對於哈瑟利來說,最重要的是依賴人工智慧來完成這些關鍵任務的下游影響,而不是對人工智慧不適當的信任態度。事實上,哈瑟利的總體論述並不重要,只要人們不能真正信任人工智慧,僅因為簡單的要點,如果人工智慧在診斷、預後和治療方面表現佔優勢的可靠性,它有可能取代對人類臨床醫生的信任(480)腳注1。作者將在「關於醫療人工智慧信任的四個關鍵問題」和「結論」章節裡回到關於取代認識(某事的)權威性的這一點。現在讓吾人關注「人們不能信任人工智慧」這一說法。
費拉里奧等人 (Ferrario et al. 2020a) 明確回應哈瑟利,認為存在一個「簡單」的信任理念,醫生可能會在最初一段時間的經驗後由信任引致依賴人工智慧應用:「經過足夠數量的試驗後,醫生難免會對醫療人工智慧的性能和錯誤模式懷抱想法。因此,在下次與醫療人工智慧交互作用時,醫生可以藉由依賴人工智慧而信任人工智慧,卻未必更新前述想法。這表現為醫生傾向在有助於想法更新的進一步活動中付出很少的[努力]和時間」(同上)。對於費拉里奧等人來說,醫生行為中的這種新傾向,其中她/他顯現出很少或根本不監督人工智慧的輸出,視為信任。由此看來,不監視或核對人工智慧應用的傾向可以理解為臨床醫生對自己的態度。其自身對人工智慧的運作沒有採取規範的態度。在這方面,簡單的信任是臨床醫生自己的責任,如果因此證明該舉措並不明智,只能責怪自己。
費拉里奧等人指出他們的核查無意限制可能涉及人工智慧信任形成的理由(2020a, 見腳注 4)。因此,信任者的動機可以是情感性的或規範性的,但它同樣可以是完全「理性的」,即戰略性的。即針對該點而言,他們對簡單信任核查的核心必要和充分要素:《放棄監視或控制所依賴的實體或相信一個人不需要這樣做》 本身既不是規範性的,也不是情感性的(2020b, 第 537 頁)。他們的核查是反規範和反情感的,因為信任的規範和情感成分對於人工智慧的信任來說並非必要。後面作者闡述,基於自由裁量權的更規範的信任核查有助於解釋使用者的期望、使用者介面內的信任邀請以及人工智慧從業者的承諾之間的相互聯繫。為了解釋此等相互聯繫,吾人需要一種規範的、面向人工智慧和人工智慧從業者的信任態度。規範性既是功能性的,即人們期望人工智慧應用執行某些功能,也是倫理性的,即如果從業者宣傳該應用程序在背景環境對於這些功能是可靠的,或者若事實並非如此,倫理責備亦屬恰當。
關於AI的規範性信任
作者對醫療人工智慧應用的信任為積極評價係基於臨床醫生給予它們的自由裁量權。在作者的信任觀中,一個實體傾向於根據對第二個實體的規範性和預測性期望,給予第二個實體對某些價值問題的自由裁量權。這一概念受到有關信任的哲學文獻的啟發,其中強調了信任所需要的自由裁量權和脆弱性(拜耶耳Baier, 1986),以及涉及信任和不信任的(通常是隱含的或溯源回到)倫理承諾(哈瑟利Hawley, 2014)。哲學文獻往往不同於經濟學和博弈論的許多文獻,它堅持認為信任具有本質裡的規範、倫理或情感成分(科亨Cohen, 2020)。儘管作者並不認為這一規範組成部分對於所有類型的信任都是相同的,但作者確實認為它適用於人工智慧的信任情況。
作者的目的是表明,對醫療人工智慧存在一種合理的信任想法,此種信任想法基於臨床醫生合理、務實的態度,並解釋了人工智慧從業者的倫理承諾。作者目標並非證明人工智慧可以滿足傳統哲學核查中人際信任的所有倫理和情感條件。作者給出了積極觀點的兩個主要論點。首先,它極佳地解釋了人工智慧從業者描述他們正在做的事情的方式,以及他們藉由邀請臨床醫生對人工智慧應用的信任而承擔的倫理承諾。第二項論點係觀點的關鍵要素作為對臨床醫生關於人工智慧應用態度的解釋是合適且合理的。接受這種觀點意味着對於什麼是信任有著較為廣泛的觀點。然而,信任的各種概念,包括自我信任、對動物和機搆的信任以及嬰兒對父母的信任,已經被廣泛接受(麥克勞德McLeod, 2002)。顯然地,以上所有概念並未滿足相同的多個條件。人們使用該等概念是因為它們具有實用和解釋價值。
人工智慧從業者經常使用與人工智慧相關的信任語言,並利用使用者介面的社交和情感特徵而邀請信任。腳注2。在一篇為程序員和資訊技術經理讀者撰寫的特色總結文章中,蕭(Siau) 和王( Wang) 認為信任是對於「人工智慧的接受和持續進步和發展」非常重要(2018 年,第 47 頁)。他們避免採用信任的定義,而更喜歡一般性的說法,即信任既是認知的又是行為的,其中認知成分包括「一組涉及仁慈、能力、正直和可預測性的特定信念集合」(同上)。在人工智慧中他們認為沒有問題,但並沒有將其與戰略依賴性明確地區分開來。吾人可視之為人工智慧從業者的觀點。
人工智慧從業者的觀點係基於組織和工具目的而培養對人工智慧、機器人和自動化的信任。這通常涉及偽裝成情感和社會特徵所呈現的人工智慧。例如,蕭Siau 和王Wang指出:「人類是社會性動物。通過社交活動可以增強持續的信任。能夠認出主人並表達愛意的機器狗可能會當成像寵物狗一樣,從而建立情感聯繫和信任」(蕭Siau & 王Wang, 2018, 第 51 頁)。將其與人工智慧聯繫起來,他們建議其他從業者「將人工智慧表示為人形或忠誠的寵物將有助於初始的信任形成」(同上,52)。類似地,關於自動化裡信任的文獻被廣泛引用結合,提到通過利用情感和社會暗示以培養信任的多種方法(霍夫Hoff&巴西爾Bashir, 2015)。作者所說的「邀請信任」就是利用暗示來鼓勵社會、情感和規範反應,使人產生依賴感。
順便說一句,人工智慧從業者的該項觀點是瑞安在上一節中批評的目標,其中經由信任發生擬人化所導致錯誤的態度和混亂了人工智慧結果的責任分配。回想瑞安的批評係基於兩個主要前提:首先,對人工智慧的信任意味着賦予它未具備的倫理和情感特徵;其次,這樣做會導致對人工智慧責任的錯誤和混亂的信念。作者的目標是通過開發對人工智慧信任的自由裁量核查並展示如何將其簡化為對人工智慧從業者的信任來侵蝕第一個前提的立論基礎,並通過指出邀請對人工智慧的信任的真正倫理含意而侵蝕第二個前提的立論基礎,如腳注3 。Ryan 關於人工智慧的信任態度可能會錯誤地擬人化是正確的。但並非皆須如此。
作者對人工智慧信任的正面核查之核心概念是賦予自由裁量權。自由裁量是指授予另一實體的有限權力;這是經常被提及的信任標示。法律學者 H.L.A. Hart哈特寫道,自由裁量的「顯着特徵」是,問題的答案「不是由事先制定的原則決定的,儘管吾人必須考慮和認真權衡的因素尚可識別之」(哈特Hart, 2013, p. 661)。在哈特看來,自由裁量涉及被賦予決定此類問題答案的權力(同上,665)。吾人可以得出結論,如同信任本身,給予自由裁量可以有效地被理解為一個實體與另一個實體的三處位置關係,意即第一個實體在相互作用範圍內將該等自由裁量權置於第二個實體手中(拜耶耳Baier,1986)。
在某些情況下,臨床醫生可以合理地假設人工智慧應用在給定領域中比他或她自己的判斷更少受到相關錯誤和「噪音」的影響,因此合理地授予其回答某些問題的自由裁量權(杜蘭和瓊斯瑪,2021)。在實務裡,可能很難說服醫生接受這樣的權威,但這正是醫療領域人工智慧從業者的既定目標(波隆斯基 Polonski, 2018)。為什麼給予自由裁量權來回答一個問題有很多務實的理由:因為答案是任意的,因為這是一個慣例問題,或者因為它涉及協調問題,例如囚徒困境(雷茲Raz, 1986,第48-50頁)。這些理由可以套用於醫學領域,其中存在任意性的情況(例如,兩種治療方法明顯不分軒輊)、慣例(例如,多個臨床醫生採用一種標準方法是有用的)、甚至涉及事實問題的協調問題(尼蘭德等Nyland et al., 2017; 雷伊Reay & 海寧斯Hinings, 2009)。任意行使自由裁量總是存在不公正的危險(普拉特Pratt & 索辛Sossin,2009)。這與信任的本質脆弱性有關(拜耶耳Baier,1986)。
在信任中,一個實體給予另一個實體自由裁量權,因為一個實體對其有相關的規範性和預測性期望。腳注4。 人們通常合理地期望它履行在其背景下為其指定的角色或功能。例如,當人工智慧應用具有將患者從特定醫院病房支持決定出院的功能時,當其它事項相同時,醫生期望它能夠很好地做出有關再入院或者死亡的相關預測亦屬合理。因為這是一種規範性期望,所以它與臨床醫生的預測無關,而是與技術的預期用途有關。此等規範性期望是評估技術是否設計良好、是否正常運作的基本成分。使用者和工程師將價值觀和規範應用在技術上,係源自此等技術的功能:「功能的理念帶有規範角色......它告訴吾等人工製品應該做什麼」(韋棵Vaesen, 2013, p.119)。當這種基於功能的期望與臨床醫生的需求和目標相關時,便成為臨床醫生將自己的一些自由裁量權賦予人工智慧應用的基礎,使其能夠(幫助)回答以前未能回答的問題,或是之前以其他方式回答過的問題。
將自由裁量權轉移給另一個實體傳遞獨特的倫理份量。行使該自由裁量權的實體有義務提供其功能或角色在背景環境所要求的內容。臨床醫生以前可能已經使用小範圍的現成資料以及他們自己的臨床觀察結果回答過這樣的問題,例如是否對給定的脆弱患者開了既定的干預措施。她根據經驗積累的專業判斷力做出了這樣的判斷。現在,假設她主要根據基於對患者圖表和生物標記物的演算法分析的顏色編碼風險評分來回答這個問題,該評分是她工作的醫院人工智慧解決方案的一部分。通過從臨床醫生手中接管這種自由裁量權,人工智慧應用成為倫理義務的客體,而不是承擔者。它的功能是在不削弱公平、福祉、效率和透明度等價值觀的情況下回答背景環境的問題。在其他條件相同的情況下,人工智慧從業者在道義上有義務確保其在這些限制內履行這一功能。這項義務是臨床醫生承擔的,因為臨床醫生的自由裁量權已通過信任行為轉移過去。與首次投入使用的任何新護理技術的一般倫理義務相比,這有助於顯現對人工智慧信任的特定規範力量。
人工智慧的功能是以某種方式表示事物,特別是使用自然語言或程序編輯的影像呈現,它需要規範的期望,可以保證對許多實際問題的自由裁量權。通過發布事實陳述,例如對患者的風險預測或掃描部位的分類,人工智慧應用呈現出某種真實的東西。這類似於斷言或書面證詞。有一種被廣泛討論的「斷言規範」,通過做出斷言,說話者規範地致力於所斷言的真實性、理由或正當性(帕京Pagin, 2016)。可以合理地假設,此種斷言規範是證言般信任的基礎,甚至部分搆成了證言信任(西米翁Simion, 2020),並使用相同的斷言規範來解釋使用者對醫學領域中人工生成的語音和表象的期望,考慮到其為真相和理由很重要的背景。人類對人工語音能力和不誠實的評估係平行於對人類語音的評估(科尼耳Kneer, 2020)。吾人可以理解機器人或複雜技術系統會欺騙的想法,因此吾人可以對其加之非禁上欺騙規範(尼克Nickel, 2013)。這並不是說人們將演算法話語與人類話語混為一談。正好相反,研究表明,與人類話語相比,人類使用不同的啟發式方法評估演算法的話語(埃芬迪Efendic 等人, 2020)。同此也適用於將人工智慧應用視為一種工具運用而不是斷言的作者,(弗萊曼Freiman&米勒Miller, 2020)。關鍵係斷言規範和代表內容乃對某些事實問題提供基礎因而賦予權威。
經由此種核查,當使用者按其在背景環境的性能之規範性和預測性期望,願意在實際重要問題上授予人工智慧應用自由裁量權時,她就會信任人工智慧應用。對於專業人士來說,賦予人工智慧應用的輸出此等權威是實際且合理的。因此,人工智慧從業者的觀點是,以信任的語言描述人工智慧為臨床醫生提供的服務,亦未通過使用者介面提供邀請其信任的建議。以這種方式描述它並不會不可避免地導致惡性擬人化或責任缺口。正好相反,通過邀請得到臨床醫生的信任,人工智慧從業者創造了規範性承諾,邀請使用者根據對其性能的規範性期望給予應用程序自由裁量權。這種權力轉移意味着人工智慧從業者對臨床醫生的倫理義務。
信任AI從業者
對醫療人工智慧信任的完整核查必須包括對人工智慧從業者本身的信任。事實上,多年來認為對人工智慧的信任僅只是對人工智慧的設計者、部署者和監督者的信任(蘇陀普Sutrop, 2019, 第 512 頁)。吾人姑且稱其為還原觀點。在本節中,作者概述了支持自由裁量核查的還原觀點的一個版本。需要事先明確的是,這並非認為不存在或不須解釋對人工智慧的信任,而是認為吾人可以將有關人工智慧信任的陳述的倫理內容轉化為有關人類和制度要素的陳述。
還原觀點必須與專業使用者和人工智慧從業者之間的客觀關係相一致。使用者往往從未見過人工智慧從業者,亦無從識別他們。此外,從業者個人通常不會親自向使用者傳達承諾,也不了解使用者對技術的具體依賴或發生的確切情況。文獻預測不久的將來,「強化學習演算法將成為醫生的助手,悄悄地協助醫生並簡化臨床護理」,並且「[機器學習]將變得愈來愈容易和愈商品化」(約翰孫等人Johnson et al., 2018, 第2678頁)如果它不引人注目且商品化,那麼它可能是高度非個人化的,從而排除對人工智慧從業者除了最抽象的信任之外的所有信任。因此,為了理解還原觀點,吾人必須假設信任不需要雙方之間的熟悉或具體承諾。一些信任理論家認為這是一個問題,因為它排除了受信任方在其行為中考慮信任方的具體依賴的可能性,以及信任方將其信任建立在對受信任方動機的特定知識的基礎上的可能性。 (哈丁,2006 年;麥克勞德,2000 年)。
儘管有這種擔憂,但在很多情況下吾人都會談論對不認識的人的信任。假設在居家隔離期間,一個人可能在網上訂購很多消費品,收到多個郵政包裹,但從未真正看到有人送貨,也無法區分對講機中聽到的送貨人的聲音。假設基於對包裹遞送服務的信念和經驗,客戶開始信任將包裹遞送到公寓大樓的人,甚至不知道遞送包裹的是一個人還是多個人。這似乎是人際信任的真實例子。正是從這個意義上說,吾人應該理解一種還原觀點,即對人工智慧應用的信任最終歸屬於設計和部署它的人。關於人工智慧從業者對使用環境和使用者的概念化,可以提出類似的觀點。
還原觀點面臨的另一個挑戰是,它需要提供一種手段,使自由裁量權由人工智慧從業者為之。坦率言之,臨床醫生依賴人工智慧應用的輸出,而不是從業者的輸出。當臨床醫生根據應用程序接受事實宣告時,並不代表他/她接受人工智慧從業者的權威。當他/她判斷它(指AI)做得很好時,這與判斷他們(指AI從業者)做得很好並不相同。 (好的從業者可能會產生糟糕的人工智慧應用,而糟糕的從業者可能會產生好的應用程序)。此外,沒有任何從業者會直接邀請使用者的信任,至少通常不會。由於這些原因,對從業者的信任並不能明顯解釋人工智慧信任的規範維度,因為它與賦予人工智慧應用輸出的權威沒有密切關係。
還原觀點另一個樣式可以解決這一問題,即人工智慧應用和從業者都是使用者態度的對象並且相互聯繫。如前所述,人工智慧應用本身是合理規範期望的最接近、具體的對象,並被賦予自由裁量權來回答某些問題。人工智慧從業者是臨床醫生不熟悉的間接對象,承擔着確保滿足這些期望的倫理義務。臨床醫生通過應用程序信任從業者。當從業者邀請並維持使用者信任時,也是通過應用程序。一個(誠然不完美的)類比可能是觀眾如何通過音樂作品的體驗與作曲家建立聯繫,雖然從未見過或聽過作曲家(甚至可能不知道他們的名字),但通過其作品形成對他們的判斷。相反,作曲家對作品的觀眾和表演形成期望。通過類比,根據這種還原觀點,從業者在邀請和支持對技術的信任方面發揮着重要作用,從使用者的體驗中刪除了一個層面。它們是使用者對應用程序信任的間接最終對象。當他們有意地將為臨床醫生解答問題的人工智慧應用置於實際背景環境中時,由於其背後的人類機搆,這會帶來倫理份量並邀請倫理期望。
信任AI的四個重要問題
「人工智慧的規範性信任」一節引入自由裁量權的概念,定義了醫生的某些功能轉移到人工智慧應用的方式。自由裁量的範圍是有限的:它總是與某個問題或活動的某個領域相關。德沃金(Dworkin,1977)將法律自由裁量描述為一個鑲空的「甜甜圈洞」,其中係以規則加上證據並不能決定某個問題的明確答案。這也正是可以部署人工智慧來更精細地識別證據並解決實際問題的領域,例如跨臨床部門而維持一致性、以對研究有用的方式整理資料以及有效利用稀缺資源。即使專業人士被賦予推翻應用程序給出的判斷或建議的權力,它也會在心理和制度上對專業判斷所認為合理的事項產生強勢影響(參見法根 Fagan &利弗摩爾 Levmore,2019 年之法律示例)。腳注 6
使用此處開發的核查,吾人可以提出四個關鍵的規範性問題,合宜的答案須滿足吾人接受信任居於合適的位置。這有助於回應人們對人工智慧取代醫生核心功能以及患者與醫生信任被取代的擔憂(Hatherley,2020,前述):
(1) 臨床醫生在哪些問題上給予人工智慧應用自由裁量權?
(2) 給予這種自由裁量是否有夠好的認知和務實理由?
(3) 臨床醫生是否可以獲得同樣的這些原因?
(4) 自由裁量權的範圍是否受到適當限制?
讓吾人以預測再次入院的人工智慧應用為例,依次討論上述問題。然後作者以一些共通性的回應為結語。
(1) 臨床醫生在哪些問題上給予人工智慧應用自由裁量權?
臨床醫生對人工智慧應用的自由裁量權取決於該應用程序的特定功能。例如,某個應用程序可能旨在根據電子健康記錄資料回答以下問題:「對於防止該患者再次入院最嚴重影響的干預措施會是什麼?」(賈梅Jamei 等,2017)。如果臨床醫生判斷值得依賴該應用程序,並且該應用程序應該能夠充分回答這個問題,吾人可以說是一種信任關係,使她能夠向該應用程序授予自由裁量權。通過培養這些期望,從業者對臨床醫生和患者承擔了應有的關懷承諾。
(2)給予這種自由裁量是否有充分的認知和務實理由?
有許多種給予人工智慧應用自由裁量權的合理理由。一方面,這樣做的典型認知原因是應用程序的可靠性:它比臨床醫生做出更少的錯誤判斷(例如,關於干預的可取性或不可取性)。正如 杜蘭Durán 和 Jongsma (2021) 所說,即使人工智慧應用的內部運作對使用者來說不透明,此係由於可以得到可靠性的原因。另一方面,給予人工智慧自由裁量權的一些原因是務實的,例如當允許人工智慧應用回答給定問題時會降低醫院的成本,或者這樣做會導致病房內不同醫生之間的決策更加一致。另一方面,也有認知和實務方面的原因,例如使用人工智慧應用可以更輕鬆地進行比較干預措施的研究,從而獲得新知識。
(3) 臨床醫生是否可以獲得同樣的這些原因?
臨床醫生有很多渠道可以了解對人工智慧應用給予自由裁量的正當理由,例如直接參與設計和實施、與醫院技術協調員溝通、訓練(杜蘭Durán & 勇斯麻Jongsma,2021,第 334 頁),或者僅僅與應用程序介面的交互溝通。信任的學者們將這些資訊渠道分為直接體驗系統之前的資訊渠道(這可能會影響是否採用或信任系統的決定)和源自直接體驗系統的資訊渠道(霍夫Hoff&巴西爾Bashir,2015)。可解釋的人工智慧作為加強專業人員當責制和創造透明度的一種方式受到了廣泛關注。這種解釋可以提供一種在人工智慧應用的個人體驗過程中建立對它的理解的方法,從而創建或維持信任(霍夫曼等人Hoffman et al., 2018)。然而,如果認為人工智慧對給定輸出提供的解釋與賦予其自由裁量權的理由相同,就是錯誤的理解。在某人有實際信賴的經驗或對特別的決定得到解釋之前,就可以授予自由裁量。
使用者介面在向臨床醫生揭示依賴人工智慧應用的理由方面發揮着重要作用。例如,在決策支持系統的使用者介面中以某種方式可視化或呈現特定患者的再度入院風險和干預選項。這為使用者提供了有關人工智慧應用採取何種理由進行推斷的提示。當向臨床醫生提供的資訊包含每位患者在 30 天內需要重新入院的估計可能性百分比時,這代表相關輸出是根據患者電子健康記錄中的資料以及其他類似患者的平均再入院率之間的統計關係而得出。顏色編碼和風險分類為「高」或「中」表明了實務參數。 施賴納(Schreiner, 2020) 等人展示了包含這些因素的介面圖片。作者研究了臨床醫生如何將自動化顯現的風險評分與人類專家判斷相結合後自己做出風險估計。
一個人工智慧應用可以具有多種功能和持有不同興趣的使用者。對人工智慧應用的多種功能可能缺乏認識和透明度是一個重大倫理問題,導致對問題(3)的回答是否定的。人工智慧應用可以具有與臨床醫生使用該應用程序的目的無關的次要功能或用途。一個例子是管理層使用基於人工智慧的臨床支持應用程序來評估和比較臨床醫生的表現或成本效果比。當臨床醫生不知道也不會認可諸如此類的二次用途時,臨床醫生的信任可以說是不健全的(弗曼Voerman & 尼克Nickel,2017)。
(4) 自由裁量權的範圍是否受到適當限制?
人工智慧在醫學領域的一些最重要的倫理風險係於自由裁量權範圍內監督鬆懈有關。在該等情況下,對人工智慧應用的信任顯得甚為廣泛或過於強烈。例子包括功能擴延、自動化偏見和技能弱化。功能擴延被定義為將最初僅為一種目的(例如:品質管制)設計的資料和分析工具用於另一種目的(例如:監視)(參見庫樸Koops,2021)。在臨床背景環境裡,一個例子是使用旨在促進部門範圍內患者治療效果的應用程序以評估個別員工的績效。阿延(Aaen) 等人 (2021) 對丹麥 DAMD 項目的研究表明,當資料「生態系統」涉及多個且不斷變化的利益相關者時,出於多種目的再次利用醫療資料(分析)是一個重大風險。自動化偏見是一種被廣泛記錄的過度信任自動化的傾向,即使自己的判斷應該對此提出危險信號(哥達Goddard 等,2012)。例如,臨床醫生有時將自動診斷的輸出作為自己判斷的基線,使用廣泛研究的心理「錨定」啟發式不足以排除錯誤而做出正確判斷(邦德等人Bond et al., 2018 )。技能弱化是指對自動化或其他形式的技術的信任導致人們失去需要使用和實踐才能維持的重要技能的過程(筏羅Vallor,2015)。從失敗中學習是現代醫學的核心實踐之一,如果對人工智慧推荐判斷或治療的原因知之甚少,則可能會受到阻礙。因此,某些人工智慧系統中的不透明問題可能會導致去技能化(馬克雷Macrae,2019)。
此處展開的人工智慧信任核查的一個理論益處是,當在背景環境部署邀請信任的人工智慧應用時,它使吾人能夠從人工智慧從業者對臨床醫生承擔的倫理義務的角度來思考這些問題。然而,臨床醫生需要批判性地思考這些對人工智慧適當授權自由裁量權的限制,表現出曼森和奧尼爾所說的「智能信任」(2007)。上述關鍵問題旨在完善這一想法。
結語
未來當臨床醫生將自由裁量權轉移給人工智慧應用的領域可能會擴大到涵蓋患者現在向臨床醫生尋求解答的許多問題的程度。當哈瑟利(Hatherley)擔心醫患信任關係所必需的大部分角色可能會轉移到人工智慧時,他就是這么想的。起初,這將是一個漸進且零碎的過程。肖(Shaw)等人倡議,引用 阿格拉瓦爾Agrawal 等人的話(2018,第 125 頁),「人工智慧的實際實施是通過工具的開發」。人工智慧工具設計的單位不是某項《工作》、《職業》或《策略》,而是《任務》」。因此,要完全取代醫療保健提供者,該提供者執行的每一項任務都需要通過《機器學習》工具成為自動化或移交給不同的人類承接」(肖 Shaw 等人,2019)。儘管如果「關於醫療人工智慧信任的四個關鍵問題」節次中的四個關鍵問題得到吾人對臨床醫生每項任務尚稱滿意的回答,但吾人仍然可能擔心某些對醫患關係至關重要的且有價值的東西已經丟失。
對哈瑟利(Hatherley)擔憂的一個可能的回應是,臨床醫生將承擔對未來醫學實踐同樣重要的新角色。醫療專業人士在討論人工智慧時經常提到的兩個角色是研究人員和護理管理者的角色。研究人員的角色不能輕易被人工智慧取代,因為過去是一個不斷變化的目標:隨着世界和技術機會的變化,舊的資料集變得過時,預測就不會準確。為了讓醫學不斷學習和改進,更需要人類設計和進行系統的研究。為了使人工智慧發揮作用,創新和研究將成為臨床醫生角色中比現在更重要的部分(Institute of Medicine,2007)。患者在同意作為研究參與者時必須信任臨床醫生-研究人員,事實上,「與醫療保健人工智慧系統尤其相關,該系統需要(來自人們的)多樣化和大量資料才能最佳化結果」(費爾德曼Feldman 等人,2019) ,第 405 頁)。腳注 7
護理經理的角色也經常被提及,因為它不能輕易被人工智慧取代(布里崗提Briganti & 模恩 Moine, 2020)。例如:一位放射科醫生在思考人工智慧的影響時寫道:「在不久的將來,當患者可以是醫生經由技術協助而提供幫助並感到安全時,他們不太可能接受完全由機器在沒有人工干預的情況下進行護理和治療。 」,並且「放射科醫生將從使用粗糙工具的《算球數》狀態轉變為處理日益複雜的量化結果的資料控制器」(埃爾.哈吉莫El Hajjam, 2020)。至少從中期來看,患者對人工智慧的信任將很大程度上取決於他們對醫生的信任。患者將把他們的個人健康利益交到使用人工智慧的醫生手中,這種信任行為將要求醫生本身在決策過程中不是機器人或演算法。
這為吾人描繪了醫療人工智慧信任的未來圖景,其中理想的情況是當患者、臨床醫生、人工智慧應用和人工智慧從業者這四個要素在適當劃定範圍的信任,且和相應的倫理承諾的關係中保持一致。隨着醫學實踐本身的變化。通過逐項考慮這種複雜性,本文提出的信任的規範性解釋為臨床醫生、人工智慧從業者和倫理學家在這個快速發展的領域提供了洞察力和研究視野。
備註:
1. 並非所有批評都包含這一主張。例如,布萊森Bryson(2018)給出了為什麼吾人不應該信任人工智慧的兩個論點。首先,人類與人工智慧不在同一層級上。對於布賴森來說,只有信任同等的某人或某物才合適,而人類不是人工智慧的同等者。第二個論點是吾人不應該相信人工智慧,因為吾人應該努力追求更好的東西。吾人應該讓那些設計和部署人工智慧的人承擔責任,這樣吾人就不需要信任。人們可能會通過觀察當責制可以支持而不是取代信任來質疑後一種論點。解釋為什麼一個人平靜地(或害怕地)進入無人駕駛汽車從 A 點到 B 點似乎可以通過提及他們的信任(或不信任)來進一步解釋。製造商的當責可能會使天平往信任傾斜,而不是使信任變得無關。
2. 作者使用人工智慧從業者一詞來指代人工智慧、機器人和自動化領域的專業人士,他們的工作是將人工智慧應用到實際背景環境中。
3. 關於第二個前提,人們可能會懷疑,在人工智慧擬人化的幌子下發展起來的信任是否造成責任差距。典型的組織因素,例如參與設計、部署和維護人工智慧的許多參與者,似乎提供了更好的解釋。
4. 可以設想,一個實體給予另一個實體自由裁量權,並不是因為一個實體能夠且須履行某一賦予的功能或角色,而僅僅是因為他沒有其他較好的選擇。這不是信任的情況。相反,人們可以對一個實體抱有規範性和預測性的期望,而無需賦予它任何權力(可能是因為它與一個人的需求無關,或者因為有相對好的替代方案)。這也不是信任。這就是為什麼需要這兩個要素:自由裁量權必須基於規範性和預測性期望才能算作信任。
5. 事實上,德沃金正在使用甜甜圈比喻來諷刺法律實證主義的自由裁量權觀點(1977,31ff)。在他自己看來,空白實際上充滿了不同類型的理由——不是規則,而是需要法律判斷的原則和政策的約束。
6. 人工智慧至少還有兩種可能的方式影響專業醫療判斷力。首先,人工智慧應用可用於阻止專業人員超出其適當的自由裁量範圍(例如,阻止歧視或醫療錯誤)。其次,它們可用於擴大自由裁量的範圍,例如:通過生成風險評分,使專業人員能夠治療更多患者或擴大干預計劃的範圍(有關執法部門的類似示例,請參閱 布萊恩Brayne 2017)。不過,作者在這裡不研究此類案例。作者關注的是人工智慧回答問題的情況,通過取代專業人士的判斷來減少他們的自由裁量。
7. 研究人員和護理專業人員的角色之間存在潛在的沖突,這可能會使資料密集型醫療保健的信任複雜化(法登Faden 等,2013)。
參考文件
略
(本篇竟)
沒有留言:
張貼留言