(2023)
Ethical Theory and Moral Practice
https://doi.org/10.1007/s10677-023-10390-4
https://link.springer.com/article/10.1007/s10677-023-10390-4
註:此譯文並未涵蓋該文全部事項,相關內容務須參閱各項文獻原本及最新版次。此處係閱讀隨筆,僅供個人學習,非供印刷或潛在意圖出版。
摘要
醫學人工智慧(AI)須為「可解釋的」論點在當代哲學、法律和最佳實務文件中廣泛存在。然而批評者認為「可解釋性」並不是一個穩定的概念。「未能解釋的」人工智慧通常更準確;旨在提高可解釋性的機制不會增進理解,反而引入新的認知問題;可解釋性要求是臨時性的,而人類的醫療決策往往是不透明的。最近對這些問題的「政治回應」認為,在意義重大場景中使用的人工智慧,包括醫療人工智慧,必須是可解釋的,以滿足合法性的基本標準:人們有理由做出影響其切身利益的決策,這需要可解釋的人工智慧。本文闡述了政治回應失敗的原因。正如其支持者所希望的,關注系統性考慮即暗指政治回應會受到與可解釋人工智慧的其他論點相同的批評,並帶出新問題。亦且使人想到,有關未能解釋的醫療人工智慧的決策可以滿足公共理性標準。最合理的回應版本是一個簡單的主張,即公共理性需要為何允許人工智慧的理由。但是實際上它並不能支持可解釋的人工智慧,也不能回應對可解釋的醫療人工智慧的強烈要求的批評。
對「黑匣子醫學」(Price, 2015)的擔憂加劇了對許多醫療人工智慧(AI)工具的批評。腳註1。人工智慧在醫療保健設置環境中有著巨大潛力,有可能帶來更準確、更高效率的決策、更短的等待時間以及更有效率的資源分配(Topol 2019a, b)。然而,許多寄予厚望的工具都是不透明的。例如,考慮用於早期自殺意念檢測的深度學習工具(例如:Roy 等人,2020 年)或針對抑郁症抗拒治療的定製建議(例如:Pigoni 等人,2019 年)。這些可以提供更準確、更有效的心理保健,但缺乏對它們這樣做的明確機制的了解,甚至可能缺乏關於哪些輸入對結果貢獻最大的可能性以及如何(獲致該項成果)提供一個合理的故事。腳註2。然而,許多人擔心,例如:甚多支持人工智慧(尤其是深度學習)的工具可能會導致錯過人工智慧引起的錯誤和偏見,或者破壞為醫療決策提供佐證說明的正當理由,從而破壞對人工智慧的信任。某些極佳的可解釋人工智慧(XAI)(定義如下)。
臨床醫生、病患和創新者聲稱擁有理解醫療人工智慧的「權利」(Panch 等人, 2019)。烏爾辛等人(2022)建議所有生物倫理原則都需要可解釋性。XAI 的倡導可見於學術界、法律/政策和產業的發展。許多學者(例如,Lundberg等人, 2020;Yap 等人, 2021)推廣 可解釋人工智慧。有些人(例如:Maclure 2021)甚至提出「強烈」可解釋性要求,意即只有高於可解釋性閾值的人工智慧才可採用。許多政策制定者接受這些論點。也就是說,歐盟《通用資料保護條例》包括要求解釋的法律權利,而可解釋性是安大略省(2022)人工智慧道德首要原則的一部分。因此,可解釋人工智慧的發展仍在繼續(Arrieta 等人,2020)。
儘管如此,此份論文仍然捍衛使用至少風險較低的未能解釋的健康相關人工智慧,仍須接受嚴格的性能測試和行政決策機搆評估可解釋未能解釋的醫療人工智慧的價值。此處專門為該等使用辯護,以應對新的政治批評,由麥克盧爾(Maclure,2021)甚有力地闡述了此項批評,認為未能解釋的人工智慧無法滿足羅爾斯公共理性標準(羅爾斯Rawls,1993)。腳註3。作者展示了公共理性所要求的醫療設置環境透明度和當責水準不支持嚴格的 XAI 要求,且行政管轄可以對醫療 AI 的準確性和安全性進行檢查,以滿足適當的政治標準。作者的論點旨在展現人工智慧不需要在任何的強烈意義上都是可以解釋的,就可以被允許在市場上提供或由醫療專業人員使用。作者並不是說可解釋性工具在適當的安全性和有效性審查所需的任何模型審核中沒有任何作用。相反,作者認為某些人工智慧不需要符合強烈可解釋性要求以資通過公共理性標準所要求的審查,並且如果它們通過了此類審查,這些人工智慧就可以合理地分配、使用,甚至可能得到資金補助。
作者首先概述了可解釋的醫療人工智慧的經典論點。然後,作者調查現有問題並鑑別新穎問題,亟需可解釋的醫療人工智慧,從而釐清顯著的論點。接下來作者概述了政治回應。作者提出了兩種讀法,但兩者都沒有繼續。一方面,法務要求基於對人工智慧如何運作的了解以做出決定。這引發了與其他要求可解釋性和新穎問題並行的問題。另一方面,法務要求提供人工智慧在某個領域被允許的理由。此點直接適用人工智慧外部的現有規範,並不涉及人工智慧的不透明性,因此不會對其表面上否定的立場做出回應。作者最終在更廣泛的論議中著重對未能解釋的人工智慧的反對意見。
本文分析對人工智慧、醫療保健和治理具有實務和理論意義。其目的是「不僅推動計算機科學和其他學科的學術辯論,而且推動哲學內部的學術辯論」,進一步闡明「基本問題和概念」,(Zimmermann 等人,2022:2)。實際上,它引發了關於未能解釋的人工智慧是否得以允許進入市場,以及是否應該有法律要求的解釋權利之爭論(Watson and Floridi 2021:9213)。其潛在的邏輯影響了此類權利的範圍:它可以支持某種形式的醫療保健例外論,以不同於其他人工智慧內化產品的方式對待醫療技術,或者表明,如果觸發可解釋性要求,則並非所有醫療人工智慧都應被視為意義重大。從理論上講,該分析涉及是否存在解釋的道德權利以及如何涉及利益相關者的義務等問題。闡述事項亦澄清了行政管轄的合法性問題,以及負責處理全球技術變革的自由民主化行政管轄看待公共理性的含義。即使作者的闡述未達目的,其中的資料對於詢問人們是否以及如何對待並行於人類和人工智慧「做出決策」之間的相似之處應該是有用的。
1 背景/詞彙
首先從定義開始,人工智慧在這裡是「可解釋的」,人們可以理解它如何以及為何運作來做到決策。 可解釋的人工智慧(XAI) 通常用於處理人工智慧「不透明」的問題,其定義為人工智慧「難於理解它為什麼要做它所做的事情或知道它是如何工作的」(Zednik 和 Boelsen 2022:220)。腳註4。人工智慧可能不透明的原因有幾個。有些問題只適用於某些人工智慧。考慮多少層的深度學習演算法如何從觀察角度隱藏相關處理節點,或者「自適應」機器學習 (ML) 工具如何隨着時間推移對新資料的執行和操作方式產生不可預測的變化(Price 2015, 2017, 2018)。其他問題普遍存在。考慮一下當術語從自然語言翻譯成代碼並反向翻譯回來時知識會丟失,從而芒芒然做出決策的擔憂(Pierce 等人. 2022)。儘管如此,可解釋的人工智慧倡導者仍然希望利益相關者能夠理解如何以及為何提供人工智慧資料庫 A 時在 X 點做出決策 B。
可解釋的人工智慧及其目標的廣泛觀點涵蓋了可解釋的醫療人工智慧爭論中的大多數現象。然而,它承認存在差異,包括系統層級(工具通常如何運行)和個人層級(特定情況下如何工作)以及特定模型和通用模型的不同解釋間的差異(Watson 2021)。一般是關注「可說明的」人工智慧和可解釋的人工智慧。這兩個術語有時可以互換使用,作者對它們採取不同方式予以區分(Watson 和 Floridi 2021:9212;Watson 2022a)。例如,Babic等人(2021)建議可說明的人工智慧使用透明函數事項。它的輸入事項、權重等都是可以理解的。因此,吾人可以了解決策是如何做成的。相對而言,可解釋的人工智慧使用某種人工智慧模型來間接「理解」另一種不透明的模型。例如,人們可以創建一種類似的、透明的演算法搭配輸出事項,而不是原先的訓練資料。 Watson 和 Floridi(2021)建議關注可說明的人工智慧,以強調「說明的主觀目標高於(表面上)客觀的解釋目標」,以及與機器學習相關的獨特問題。然而,Zerilli(2022)根據代理者層面/民間心理理解以定義可說明性,並表明這只是可解釋的人工智慧的三個目標之一。腳註 5。 Herzog(2022)隨後指出,「可理解性」係「通用」項目下的子集,另外尚有「可解釋性」,但表明「可解釋性explicability」是個較好的通用術語,側重於「可以在實踐中獲得理解和加以利用的解釋。」腳註6。
可解釋的人工智慧支持者提出了可接受的醫療人工智慧必須滿足的不同認知目標(可說明性、透明度、理解性、可信度等)(Arrieta 等人,2020)。他們尋求解決的問題有幾個名稱,包括「黑匣子」、「可解釋性」、「透明度」、「可說明性」或「可懂度」問題(Maclure 2021:422)。有些人試圖解釋人工智慧工具「做了什麼」,而另一些人則試圖解釋它「為什麼」產生結果(Zednik 2021:274)。不同的利益相關者——人工智慧開發者、用戶、監管者等——可能需要處於不同的認知狀態才能實現不同的目的(Tomsett 等人, 2018;Zednik 2021)。適合這些任務的解釋類型可能更加不同。人們可能需要區分用於稽核等目的、以模型為中心的解釋、可以支持決策的以臨床醫生為中心的解釋,以及側重於信任和知情同意的以病患為中心的解釋。腳註7。然而,XAI 倡導者尋求解釋「告訴我們為什麼 x是真的」(Watson 等人, 2019),其中 x 代表輸入-輸出關係。如果不清楚人工智慧如何「達到特定的輸出」,就會出現所謂的問題,從而破壞信任、接受和責任(Ratti 和 Graves 2022)。
此份作品使用可解釋的人工智慧作為其通用的論證目的。 「可解釋的人工智慧XAI」是否最能描述所討論的現象,這一點幾乎沒有任何爭議。對可解釋的人工智慧的呼籲有多種形式,但共同的基本承諾是,只要能夠解釋人工智慧如何以及為何做出決策,人工智慧就應該可用。更具體地說,大多數人認為人工智慧是「可解釋的」,前提是人們可以提供一種查核機制,說明人工智慧做出的決策、支撐做出決策的規則,以及特定輸入在投入人工智慧以觸發規則時其將如何產生決策。他們認為,可解釋的人工智慧至少承認對集合輸入如何以及為何產生特定結果的「高階」解釋。腳註8。 這並不需要一個完整的原因—結果故事來說明工具的每個元素如何以及為何對每個結果做出貢獻。然而,如果人工智慧要符合可解釋的標準,就應該能夠通過透明的設計或使用輔助演算法來提供其操作的一般查核,(至少)識別出最有可能對結果負責的若干元素,並且人工智慧認為它們配合的合理理由。這種對可解釋性的極簡主義解釋仍將存在爭議,但它抓住了許多強烈的可解釋性要求倡導者所謂的願望,同時為他們提供了比其他解釋更廣泛的論證舉措。由此體現了寬大的原則。與此相一致的是,作者保持不可知論者身份,所以毋須知道識別人工智慧如何做出決策的方法是系統層面還是個人層面、事前還是事後,及其所需的精確技術資料。
基於上述可解釋的人工智慧的定義有多種形式。例如,巴比奇等人(2021)的區別跟蹤並可以重新表述為「固有」(或「內在」)可解釋性和「事後」可解釋性之間的另一種區別(Watson 2021:49ff;Ghassemi 等人,2021)。固有的可解釋性是關於人工智慧如何做出決策的事前透明度,使得人工智慧輸入和輸出之間的關係清晰。內在可解釋的人工智慧不會引發明顯的可理解性問題;人們總是可以解釋輸入如何產生輸出(Watson 2021:49)。當它們包含「具有清晰內部結搆的簡單模型,導致廣泛嘗試對潛在複雜的黑盒子模型使用事後解釋」時,它們最有可能發揮作用(Poursabzi-Sangdeh 等人,2021)。事後可解釋性工具試圖理解人工智慧工具是如何「決定」的。它們包括使用更透明的二階輔助人工智慧來重現原始(但在其他方面不透明)人工智慧的結果,或提供輸入對這些結果的貢獻程度的統計概率。
許多事後可解釋性工具將人工智慧流程簡化為內在可解釋的人工智慧工具的更複雜版本,例如線性回歸或規則清單。考慮「特徵屬性方法」,它試圖確定輸入產生特定輸出的程度(同上)。複雜的線性回歸和規則清單「嘗試使用更容易說明的替代方法來近似一些複雜的函數關係」(同上:49)。例如,局部可說明的與模型無關的解釋 (LIME) 和 Shapley 疊加型解釋 (SHAP) 提供線性回歸方法,可以近似並最好地解釋其他不透明的工具,如深度神經網路模型,從而達成決策(同上;Watson 2022b:1503) 。規則清單旨在提供相同的功能;它們通常被形象化為帶有一系列「若...則(if-then) 語句」的決策樹(Watson 2022b:1506-1507;Zerilli 2022;Zednik 2021:277)。這些工具以不同的方式提供「說明」。例如,SHAP 是一系列事後技術的一部分,包括可視化、統計分析等,旨在「識別系統中的高責任域輸入」(Zednik 和 Boelsen 2022:222)。其他示例包括熱圖,它為每個輸入對輸出的責任域分配值,並在決策區域的顏色編碼「地圖」中直觀地顯示之,以及特徵檢測器可視化,它以圖形方式表示關鍵輸入(Zednik 2021:275–276) ,281)。相比之下,LIME 是「代理建模」的一種形式,人們通過近似不透明人工智慧的二次人工智慧尋求理解(Zednik 和 Boelsen 2022:221)。還有其他可解釋性工具衡量輸入層級事項影響各個結果的程度,包括通過與周圍環境中的結果進行比較(如分層相關性傳播)(同上;Zednik 2021)。
一些可解釋的人工智慧工具無法提供輸入—輸出關係的完整因果故事,人們可能期望對「如何」做出決策有更強烈的機械型查核,但上述每一項都可以幫助滿足上面對可解釋性的更廣泛的定義。如果他們不遵守這個定義,他們就超出了作者的調查範圍。作者的現象是否最適合使用「XAI」這個術語,仍然付諸爭議。但這種機械型查核在多個領域都有先例,包括當前辯論中關鍵人物的工作,如:Maclure (2021) 和 London (2019)。至少,醫學領域的強可解釋性倡導者尋求此類知識,以便為專業人員提供指引,以得知人工智慧是否可能在適當的基礎上做出決策,並告知病患相關資訊。這需要對人工智慧如何以及為何做出決定有一定的了解。即使是號稱的可解釋的人工智慧既不是也不能提供人工智慧如何運作的完整因果故事,仍然試圖完成此項基本任務。腳註 9。
因此,可解釋的醫療人工智慧倡導者尋求確保(至少)醫療專業人員能夠理解人工智慧用於做出決策的機制。許多倡導者進一步希望了解某個領域的因果關係以及解釋它們的原則(London,2019)。腳註 10。 為人工智慧「可解釋性」設計的方法旨在在輸入和輸出之間建立牢固的關係,可解釋的人工智慧倡導者再次表明希望解釋究竟係如何做出決策。雖然倡導者可能不需要完整的因果故事,但他們會尋求足夠的資訊以識別最有可能產生結果的機制、規則和輸入,並保證這些都是精心選擇的事項。問題是所有醫療人工智慧是否都須要在此種意義上得到解釋。在引發作者的負面回應之前,作者將簡要解釋為什麼許多人認為他們須要這麼做。
2 簡述可解釋醫療人工智慧的經典論點
可解釋的醫療人工智慧具有許多好處。一些人認為,可解釋性要求可以通過消除原因—結果噪音或識別可能破壞穩健性的「攝動」等方式來提高性能(Arrieta 等人,2020:83)或幫助識別/修復「缺陷」(Poursabzi-Sangdeh 等人,2021;Watson)和 Floridi 2021: 9212–9213)或技術性問題,例如「過擬合」,即人工智慧對於一個資料庫甚為準確,代表其解決方案無法泛化(Watson/Floridi id。)。腳註 11 。其他人建議可解釋的人工智慧最好地識別安全風險、導致人工智慧引起的危害機制等因素,以及處理這些問題的方法:很難處理無法事前預測或事後理解的問題(同上;Arrieta 等人,2020 年:83;Poursabzi-Sangdeh 等人,2021 年) ;Ghassemi 等人,2021;Yoon 等人,2022)。如果人工智慧是可解釋的,偏見和相關資料問題也可能更容易偵測和解決(Yoon 等人,同上;Watson 和 Floridi 2021:9236)。
進一步的論點表明,可解釋的人工智慧促進透明度,並更廣泛地幫助證明人工智慧相關決策的合理性,當決策將影響切身利益時,此點是必須要的,或者促進對人工智慧的信任,這是確保其潛在利益所必須要的(比較,例如:倫惇 2019 年;Ghassemi 等人,2021;麥克盧爾 2021)。人們應該得知對影響他們的決策做出解釋,如果沒有這樣的決策,即使是有益的人工智慧使用也不會接受(另見 Poursabzi-Sangdeh 等人,2021)。
據稱,可解釋的醫療人工智慧可以促進許多與內在認知或政治善意、基本安全和其他工具性商品(例如:公眾信任)相關的商品。對此的呼籲並不令人意外。更強大的版本支持惟獨使用可解釋的醫療人工智慧,甚至支持禁止在醫療保健環境中使用不能解釋的人工智慧工具的法律標準。
3 可解釋的醫療人工智慧的爭端
儘管如此,關於可解釋的醫療人工智慧的爭論仍然面臨着爭端。作者將首先概述一般性爭端然後再討論此處所討論的新的政治問題。例如,很難確定相關的認知或道德目標。作者們稱其為「不精確爭論」。「可解釋人工智慧」的論點再次引用了不同的認知標準。如果人們將「理解」作為基本規範(Arrieta 等人, 2020;Sullivan 2022),那麼對於醫療人工智慧的要求仍然沒有良好的技術定義(Ghassemi 等人, 2021)。法律標準,例如歐盟獲得「有關自動做成的決策背後邏輯之有意義資訊」的權利,並沒有解釋作者們是否應該尋求內在或事後的可解釋性,或者幫助指出滿足上述兩者之一標準所需的技術標準。人工智慧是否需要原則上能夠被相關方(例如:醫生)理解,或者實際上被某些群體(例如:大多數醫生)理解,才能正確地獲得「可解釋」的資格,目前尚未明確。
不同受眾需要不同類型的解釋(Arrieta 等人,2020)的擔憂也引發挑戰。監管機搆允許銷售某種工具和醫生使用該工具所需的解釋程度可能有所不同。 可解釋的人工智慧的擁護者承認這一點,但此點所帶來的問題比許多人認為的還要嚴重:指定《所有》相關的認知標準是一項艱鉅的任務,而吾人現在缺乏《任何》精確的標準。而且,正如吾人將接著看到,各種目的所需的理解程度通常不需要對支撐決策的機制進行解釋。這對於可解釋的人工智慧倡導者以模型為中心、以臨床醫生為中心和以病患為中心的目標來說也是如此。
產品的可解釋性同樣地不明確。它們是內在的還是工具性的?認知性還是道德性?腳註12 。如果不明確可解釋性應該提昇什麼,就很難知道可解釋性應該意味着什麼,也很難評估相關的論點。工具式論點需要實證支持更強烈的要求,故支持者不太可能提出之。例如:可解釋性對於解決偏見問題或保護隱私來說既不必要也不充分。即使那些訴諸偏見問題的人也承認,可解釋性只會讓解決這個問題變得更容易(Yoon 等人,2022)。處理這個問題的其他方法可能在技術上或其他方面更優越。畢竟,奧伯邁耶等人 (2019) 鑑別出不可解釋的人工智慧中的偏見。
如果更有經驗的查核能夠處理上述問題,那麼實證考慮就會帶來更多挑戰。其中之一起源於可解釋性要求減損醫療人工智慧的潛在益處。可稱之為「準確性的爭論」。即使是最好的醫療保健系統也會遭受高發生率的醫生診斷引起的損傷、漫長的等待時間、高昂的醫療成本和提供者偏見的困擾(Da Silva 等人, 2022)。人工智慧在整個護理領域的進步提供了提高準確性、提高效率的前景,並且如果正確校正,可以減輕提供者的偏見(同上)。這些產品依賴於人工智慧性能,但與可解釋性的相關性不足以佐證強烈的要求。 「沒有邏輯的或統計的保證可說明模型將優於競爭對手黑盒子,甚至無法成為任何給定預測問題的羅修孟高性能模型集合」(Watson 和 Floridi 2021:9235)。最有效的人工智慧並不是最容易解釋的人工智慧(London 2019;Babic 等人, 2021)。不可解釋的深度學習人工智慧促成了許多最近令人興奮的醫學發展,包括上面的心理健康例子。腳註13。
固有的可解釋性要求放棄了深度學習的可能性(Babic 等人, 2021)。簡單模型不會出現嚴重的準確性問題(Poursabzi-Sangdeh 等人,2021)。然而內在可解釋的深度學習不太可能可予以證明可行。未能解釋的深度學習在醫療保健環境中已經很有價值,並且具有巨大的未來潛力。事後措施可能無法填補對有效部署至關重要的剩餘知識落差。許多人並不關注現實世界的準確性,而是關注創建適合「黑盒子」人工智慧的「白盒子」演算法(Babic 等人,2021)。它們加劇了不準確的風險:主要演算法和可以解釋它的白盒子人工智慧都提供了技術錯誤的機會(Ghassemi 等人,2021)。相比之下,熱圖和其他非代理建模工具並不依賴於白盒子。從理論上講,未來的創新可以最大限度地減少「可解釋性」和性能之間許多現有權衡的必要性(Rudin, 2019)。然而,即使是最好的現有和提議的事後工具也會引起非最低精度權衡問題,並且對輔助演算法的依賴仍然會帶來新的誤解/錯誤的機會。如果熱圖等避開了這些問題,擁護者仍然承認他們的解釋無法達到許多目的。
第二個實證論點,「來自可解釋性機制侷限性的論點」,指出許多可解釋的人工智慧的形式沒有實現其認知或道德目標。此處于現有的混合證據不能支持強烈的可解釋性要求。例如,最近的一項研究表明,簡單模型的少許特色可以增進理解,但不會引導人們更契合地遵循建議,因為這會有益並削弱識別/矯正重大錯誤的能力(Poursabzi-Sangdeh 等人,2021)。巴比克等人(2021)表明事後可解釋性工具無法充分更好地理解原先器材的工作,並產生錯誤的理解(「替代品」),從而維持了不透明相關的問題。加塞米等人 (2021) 補充說,許多可解釋性工具(熱圖、背景環境語言模型等)展示了與決策相關的內容,但沒有展示其為何相關或是否曾經須要相關。就連可解釋的人工智慧的擁護者也承認它只在特定條件下提供商品。例如,Zednik(2021:286)建議熱圖回答「什麼」和「為什麼」問題,而特徵檢測器可視化可以回答「如何」和「在哪里」問題,但兩者在底層資料服從語義可解釋性的情況下效果最好。雖然不同類型的解釋可能再次證明適合不同的利益相關者,但許多工具的解釋與臨床決策相關的解釋並不相同(Lindsell 等人,2020)。因此,初級 AI 可能仍然無法滿足強烈的可解釋的人工智慧倡導者提出的任何使用標準。
更為正向的資料並不能佐證強烈的可解釋性要求。例如,Tschandl 等人(2020)在一封信中報告說,在他們的研究中,人類評估者在接受可解釋的 34 層神經網路的通知後會更加準確,並提出「基於人工智慧的預測的解釋可以轉化為人類可理解的視覺概念」(同上2020:1232)。然而,他們還報告稱:「如果人工智慧出現故障,使用可解釋工具的人員很容易表現出低於預期的能力,無論是技術促進其說明事項,或是可解釋性帶有風險導致負面影響。」尚不清楚。另一項研究表明,可解釋性工具可以在人類和人工智慧之間提供一個「界面」,例如將淋巴結診斷工具結果轉化為可以「集成到更廣泛的《醫學文化》診斷中」的分類(Ratti 2022)。然而,可解釋性工具並不是唯一可能的界面。即使是最有效的方法也可能並不適合所有人。多個主要的事後可解釋性工具在受保護群體之間呈現出顯着差異(Balagopalan 等人,2022),此乃浸蝕可解釋性要求將解決偏見的主張。儘管 Watson (2022a) 樂觀地認為未來的人工智慧將解決許多問題,但仍然存在挑戰。
加塞米等人。 (2021)進一步指出,現有的事後可解釋性工具無法準確識別系統如何運行並做出特定決策,這讓人類填補了敘述間隙,並為他們提供了反正都要做出決策的掩護。這反映了人們普遍的擔憂,即人工智慧通常為應該公開質疑的深刻政治決策提供中立的外表(例如,Benjamin 2019(主要是關於偏見))。如果目標是做出更好的決策理由,事後措施將無法提供這些理由,並且可以為其他有問題的主張提供技術上的合理性。如果目標是當責制,至少事後的替代性理解根本不允許進行適當的「檢查」。此外,人工智慧環境中當責制的含義仍在發展中(Johnson 2021),生硬的可解釋性要求可能會限制發展更細致的觀點的機會。
對於實現相關最終目標所需的理解而言,增加透明度顯然不是必要或充分的。 Sullivan (2022)認為,許多機器學習工具的真正問題是「缺乏支持模型與目標現象之間聯繫的科學和經驗證據」。相關的認知狀態需要理解演算法與其建模的潛在現象之間的關係,而不僅僅是輸入集 X 如何產生結果 Y。事實上,沙利文認為,如果《不透明的》人工智慧「存在足夠的鏈接連接感興趣的現象的模型。」如果是這樣,「可解釋性」要求可能變成掩人耳目。人們需要一種更好的方法來確保演算法真正模擬現實世界的現象。 可解釋的人工智慧顯然也不適合該等要求。
沙利文對「鏈接不確定性」的更廣泛擔憂仍然存在,這種「鏈接不確定性」涉及吾人對模型功能的理解與外部證據之間的不一致。腳註14。然而,至少許多鏈接不確定性相關的問題可以通過整個醫學研究發展過程中更強的證據標準得到更好的處理。例如:沙利文指出,醫療案例中存在鏈接不確定性的許多問題源於缺乏有關各種醫療狀況的強烈的經驗資料供輸入醫療人工智慧(同上:124-125)。因此,她建議使用支持深度學習的人工智慧於識別新的研究問題,而不是直接通知護理單位。然而,如果人工智慧在任何情況下都可用,那麼對基礎資料品質和人工智慧性能兩者的更高佐證標準可以最大限度地降低鏈接路徑不確定性的風險以及任何隨之而來的危害。還有進一步的理由要提高許多產業的安全性和有效性審查的證據標準,並隨着適當標準的不斷發展,在缺乏強烈證據的情況下對人工智慧保持謹慎(Da Silva 等人,2022)。然而,強烈可解釋性要求顯然不一定適用於這些目的。它們是否有必要處理相關的經驗問題仍不清楚。上述/下述的內容表明,充其量只有某些可解釋的人工智慧解決的問題可能比它們提出的問題還要多。
然後,「來自非預期後果的爭論」指出,強制使用可解釋的人工智慧可能會適得其反。西姆庫特等人。 (2021)發現使用演算法系統可能會破壞領域專家運用其專業知識的能力;非定製適應的可解釋性機制可能會導致自動化偏見和演算法移位。泛泛而言,個人在使用可解釋的人工智慧時可能更
容易受到自動化偏見的影響,給予它不適當的尊重,因此未矯正錯誤事項。 Poursabzi-Sangdeh 等人(2021)指出,即使在更簡單的模型上,其研究參與者無法識別和矯正錯誤。雅各布斯等人。 (2021)指出對人工智慧如何運作或做出決策提供任何解釋,都會增加醫療保健提供者遵循不準確的人工智慧建議的可能性。腳註15 。甚至 Tschandl 等人(2020) 發現,隨着時間的推移,可解釋的人工智慧工具的用戶開始忽視可解釋的人工智慧。雖然此等經驗尚值得商榷,但對可解釋的人工智慧要求可能因提供錯誤的理解而損害安全性的擔憂目前是合理的。
此外,人們對可解釋的人工智慧的呼籲也令人覺得怪異,因為人類做決策時也是不透明的。「來自人類推理侷限性的論證」(Maclure, 2021)指出,人工智慧在滿足相關認知標準方面並不比人類差。人類的醫療決策通常是在對治療等的作用機制沒有清楚了解的情況下進行的。支持可解釋的人工智慧的論點同樣擔心人工智慧無法繪制真實的因果關係(London, 2019 年)。人類也缺乏這種能力。人們長期以來一直使用對乙酰氨基酚(Ghassemi 等人,2021 年)、阿司匹林和鋰(London, 2019 年)等藥物,但並不了解它們關於健康益處的確切機制。醫療實踐需要在缺乏對根本原因充分理解的情況下根據大量證據做出判斷(同上)。目前還不清楚為什麼人工智慧應該面臨明顯的解釋性「負擔」(Watson等人, 2019),而人類從業者無需克服(此種負擔)。要求人工智慧可解釋依賴於對技術的不當偏見。作者們不會容忍一個沒有乙酰氨基酚及其益處的世界,即使它的運作永遠無法得到解釋。對人類福祉的損失將是巨大的。同樣地,某種人工智慧,即使經過嚴格審查、可以極大改善人類福祉的人工智慧,只因為它未能解釋,吾人就不支持。當強烈的可解釋的人工智慧要求也為技術錯誤和人為濫用人工智慧資料提供機會,而強烈的可解釋的人工智慧要求不太可能處理所面對問題時,尤其如是。腳註 16。
4 政治回應
政治考慮仍然強烈要求可解釋的醫療人工智慧。可解釋的人工智慧在醫療保健等高風險環境中的一個新論點側重於基本的自由民主政治承諾,而不是認知規範。正如 Vredenburgh (2022:210)寫道,「不透明的演算法可能會破壞使用它們的機搆的合法性和公平性。」人們應該對直接影響他們的決策得到解釋。任何人的行為影響他人的切身利益,都必須以受影響者無法合理拒絕的理由來證明該行為是合法的。腳註17。否則,他們就錯待了受影響者。政府只有在提供正當理由的情況下才能有效地限制主體的決定。這顯然需要理解決策的基礎。因此,政治合法性只允許使用其操作和決策可以解釋的人工智慧。健康顯然是人類的切身利益。因此,醫療人工智慧的使用必須是可解釋的,以維持基本的政治合法性。本項論述的其餘部分描述並評估了對可解釋的人工智慧相關問題的「政治回應」。
Maclure(2021)對「人類推理侷限性的論證」的回應是可解釋的人工智慧論證的最完整版本,並以可能需要精確化相關認知和道德標準的方式回應了一些實證擔憂事項。根據Maclure (2021: 427),公共理性要求影響個人的決策的理由是公開可獲得的並且可以接受,即「至少與……法律的政治概念相符合」。 ……[可解釋性因此是必要的,以便]可以仔細檢查和評鑑自動化的決策內容。」換句話說,人們有權知道為什麼會做出影響他們的決定。因此,合法的政治決策必須是正確的、合理的。未能解釋的人工智慧無法滿足這些條件。因此,Maclure (422) 主張「強烈的可解釋性要求:人類組織……應該在法律上有義務證明有能力解釋和佐證說明演算法決策的合理性……[影響]受影響者的福祉、權利和機會。」
根據 Maclure (431) 的說法,人類決策的不透明性不能用來「辯解」人工智慧決策的不透明性。公共理性諸多標準在不同背景環境下都是持穩的。人類推理的侷限性聲稱人工智慧在滿足這些侷限性方面並不差,這一論點依賴於有問題的個人主義承諾。必須突顯政治領域給予理性內容,而非從制度視角審視。例如,大型法律和醫療保健系統為特定決策提供理由,填補了個人容易犯錯、不完整且(有時?)不透明的理由規定的空白。未能解釋的人工智慧不存在類似的系統;人工智慧研究人員無法「將一段代碼翻譯成一組可以用自然語言表達的佐證說明」(426)。深度學習人工智慧中的隱藏處理節點可能也是如此;常人無法翻譯其人無法觀察到的事物。正如 Maclure (431) 所寫,在未能解釋的人工智慧的爭論中,「人類給出理由的社會和制度象限的重要性被忽視了」。在人類案件中,制度提供「更加審慎和透明」(432)的決策程序(法庭訴訟、行政審查等),在人工智慧案件中尚屬從缺。
如果麥克盧爾(Maclure)的論點得以持續,將挑戰關於未能解釋的人工智慧的論點,不僅限於人類推理的侷限性。例如,如果使用未能解釋的人工智慧是非法的,那麼使用事後可解釋性工具解決技術問題即為確保目前不透明的人工智慧的諸多益處的關鍵。雖然政治回應對系統層面理解的關注可能無法滿足一些可解釋的人工智慧倡導者的願望,後者指出社會和制度進展必須提供必要的解釋並不能免除確保個人理解它們的責任。根據這一回應,個人可以聲稱影響其切身利益的決定只有在可以理解的情況下才是合法的。如果系統層面和個人層面所要求的解釋不同,制度程序仍然會產生可以為個人決策提供既知的資訊。例如,通過嚴格的安全審查獲得的知識係與知情同意直接相關。
麥克盧爾(Maclure)的論點適用於醫療設定情況。麥克盧爾(Maclure)主要擔心的是組織對未能解釋的人工智慧的使用。這包括健康部、醫療保健機搆等出於合理化或規劃目的所使用之。它可能涵蓋有關哪些人工智慧工具進入市場或公眾資助之的決策。然而,麥克盧爾(Maclure) 尚討論了可解釋的治療或診斷決策的必要性,提出諸如知情同意必然涉及提供者與病患直接關係等概念。這點表明他也希望在臨床情況中提出強烈的可解釋性要求。腳註18。然而,任何須要說明的狀況都可以最小化:作者將證明任何麥克盧爾(Maclure)式的論點都會引發像其他可解釋醫療人工智慧的呼籲所面臨的問題一樣的問题。只要存在確保人工智慧安全/有效性的強固的制度手段的情況下,至少有一些醫療人工智慧准允分發、使用,甚至得到資助,即使缺乏強烈的可解釋性要求。
5 政治回應的問題
政治回應有其優點,但面臨着許多關於可解釋的醫療人工智慧的現有論據的問題,並引發了新的問題。其最合理的形式並不能應對相關挑戰。為了展現此點,作者首先解釋現有機搆行政程序的修改版本如何在缺乏強烈可解釋性要求的情況下滿足公共理性標準。然後作者會解釋為什麼以及何時臨床醫生可以使用一些未能解釋的人工智慧。最後,作者詳細說明了為什麼強烈可解釋性要求甚至不需要滿足相關的真正政治(例如:配給)決策的公共理性規範。這些論點共同表明,一些未能解釋的醫療人工智慧可以得到允許的分布、使用和(很有可能)受到資助。
i. 制度標準和公共理性
首先同意麥克盧爾(Maclure)提出的從制度上審查可解釋性問題的必要性,無論其是否適用於特定的醫療保健提供者的決策,健康司法所需的公共理性標準從來不需要醫療工具工作方式的完全透明。他們要求做出決策的充分理由和挑戰決策的機會,而這些理由可以而且經常在沒有可解釋的工具的情況下提供。評估人工智慧工具的法律機制提供了許多評鑑性能、成本和採用原因的機會,以及評鑑準確性和合理性的架構,即 Maclure(2021)評鑑政治主張的羅爾斯準則。作者建議加強這些制度,而不是禁止未能解釋的與健康相關的人工智慧,甚至對它們的可獲得性建立一個可撤銷的推定。
考慮一下在英國、美國或加拿大等西方自由民主國家的臨床條件實施之前所釆取的典型路徑工具(Minssen 等人, 2020;Levine 2020;Homeyer 等人, 2021;Flood and Régis 2021)。大多數醫療人工智慧工具都是從臨床試驗開始的。許多試驗都受到支持研究的資助機搆的研究要求以及特定地點(醫院、大學等)機搆/研究倫理委員會的要求。許多還受到聯邦或州法規的約束,例如加拿大健康部關於人類研究的法規。腳註21。臨床試驗由幾個階段組成。人工智慧工具在執行每個步驟之前必須滿足性能保證。如果滿足性能標竿,則可能會保持其他測試項目。例如,開發人員的人工智慧若符合「醫療器材」定義,就必須通過安全性和有效性審查,然後才能放入市場。該階段的證據標準經常受到批評,一些工具逃脫了監督審查,但在非人工智慧/藥物設定中也是如此。腳註22。此類事項適用於所有受監管的健康產品,而不僅僅是人工智慧。
特定背景環境提供了進一步的保障。在聯邦國家,州/省的規則(例如:適用於醫院監管的規則)決定了在州/省提供哪些商品。反過來,在公共資助的醫療保健系統中,政府決策者擁有決定提供哪些商品的機制。例如,加拿大各省關於將哪些內容添加到公共醫療處方集(即公共系統中可獲得的商品)的決定通常是通過使用品質、效率、成本和其他相關度量的額外研究(例如:健康技術評鑑)獲得資訊以決定之。(Flood 和 Régis 2021)。在提供者獲得商品(放行)之前,每人必須遵循這一制度流程中的每一步驟。然後,個別提供者必須做出決定符合專業實踐指南和私領域法規護理標準。該過程中的每個步驟都提供了有助於「佐證」商品使用合理性的資訊,並涉及與決策/措施是否符合公共理性相關的價值觀。如果某個步驟在某特定州出現狀況,它們仍然共同提供一個架構來評鑑使用某種商品是否有所佐證。既然可以用於評鑑尚不透明的人類決策,亦當適用於人工智慧。
那麼,「制度」考量亦可展現評鑑醫療工具開發和使用的既有機搆如何能夠評鑑未能解釋的人工智慧分發和使用的合理性。對於以模型和臨床醫生為中心的評鑑架構來說確實如此。誠然某些既有的醫療工具評鑑機制存在困難。並非所有人工智慧工具都面臨上述每個階段的仔細審查。但未完善監管並不能辯駁強烈的可解釋性要求是正確的。例如,藥物和醫療器材的安全性和有效性審查經常因其證據標準低而受到批評(Da Silva 等人,2022)。然而,標準尚未低到不合理地放行所有相關商品的使用。審查的其他階段提供了針對數位化包治百弊的保障措施。如果人們不相信人類宜於作為防止濫用的適當保障措施,那麼很難理解為什麼這應該有利於繼續依賴人類提供者的決定而不是未能解釋的人工智慧的決定。如果當前的問題是人類表現不佳,那麼更多的人類措施係不平常的解決方案。此外,此處證據型問題可能適用於所有保健產品;因此,他們不支持單獨對醫療人工智慧提出強烈的可解釋性要求。那些對證據感興趣的人應該指望人工智慧以填補人類知識的洪溝。那些對「正確」決策感興趣的人毋須太快接受可解釋性/準確性的權衡結果。
現有機搆要求進行修改以解決人工智慧相關問題,但許多問題似乎可以在沒有強大的可解釋性要求的情況下得以處理之。例如,Ratti 和 Graves(2022)建議監管機搆應要求解釋工具的建構方式,包括「在設計人工智慧工具時做出的技術選擇」的文件和給出理由。他們指出,現行標準建議創新者應「提供一長串技術要求和規範,以中立、一步步的方式闡述……[以及]為何所做出的技術選擇係產生總體效果為最佳選擇的原因。」雖然他們承認這個問題將解決訓練演算法的程序的不透明性,而不是演算法本身,但這可以處理許多潛在的問題。另一方面,正如作者在之前與 Colleen M. Flood 和 Mathew Herder(Da Silva 等人, 2022)的工作中詳細討論的那樣,西方自由民主國家的監管機搆通過真正自適應的機器學習工具來看待獨特的問題,比如事前識別問題的困難,並提供規劃人工智慧助益醫療器材進行中的監管改革的原則。本文作者的協同作者提倡強烈的上市後審查機制,包括定期的第三方稽核,並認為這些機制不能以犧牲上市前審查為代價。事實上,作者們認為,短期內自適應機器學習器材上市前審查的證據標準應該更高;如上所述,機器學習「有效性」標準不斷變化,監管機搆在制定過程中應保持謹慎。作者們進一步注意到,監管機搆過去擴大了對安全性的理解,並且應該為人工智慧這樣做,以解決與偏見相關的安全問題。此類建議和 Tschandl 等人(2020:1232)呼籲對人工智慧進行現實世界測試,如果需要足夠的證據來建立因果關係,也可以處理對鏈接不確定性的擔憂。關鍵是看似合理的改革並不要求可解釋的人工智慧。
直接面向消費者的人工智慧工具可能不會面臨上述所有審查階段,但會面臨一些被視為非屬人工智慧消費品可接受的階段,並受到限制使用的產品責任規範的約束。因此,制度上的相似之處仍然存在。現有的制度保障問題顯然並不是未能解釋的人工智慧的問題。他們指出普遍需要改進機制,以確保醫療保健決策在整個護理領域都是合理的。如果藥物和其他器材也存在問題,就必須改進系統。強烈的可解釋性要求留下了現存的擔憂,並阻礙了有益工具的使用。
行政決策本身是否合法,很大程度上超出了作者的探究範圍。但是,行政決策必須接受審查,反之則須達到基本的公共理性標準。上述修改將改善問題。如果他們不證明所有行政決策的正確性,就也不會破壞作者的提議。關於行政機搆對其他醫療保健產品進行合法監管的論點似乎也適用於人工智慧,人工智慧的監管可以滿足在其他地方被視為合法的公共理性標準,監管機搆可以幫助確保有關人工智慧使用的決策也符合這些標準。未能解釋的人工智慧工具符合合理性標準,而可解釋性機制的侷限性表明許多工具可以更好地滿足正確性標準。因此,阻止他們是缺乏動機的。如果某些人工智慧不透明性使檢查變得更加困難,則上面/下面的機制可以確證事前和事後的安全性和有效性。在某些情況下,人工智慧的一個錯誤可能會造成嚴重後果。但在更常見的情況下,允許低風險的未能解釋的人工智慧是明智的,因為人類的情況並沒有更好,而且人工智慧存在保障措施。
可解釋性工具可能是稽核過程的有用元素,但工具是否易於提交到可解釋的人工智慧流程不應決定它是否可以通過強固的替代型稽核流程以獲得許可和放行使用。例如,SHAP 和 LIME 可能對模型稽核有用,即使它們沒有完全闡明人工智慧操作。註腳24。了解哪些輸入最有可能對結果做出貢獻,為人工智慧決策提供了合理的基礎— 並可以幫助評估(可能的)底層機制。這可以幫助處理由於過度擬合而導致的給定工具僅在現有研究中被證明安全有效的擔憂,通過提供除粗暴結果之外的稽核決定的額外方法。然而,SHAP 值可能並不總是決定作者們是否應該允許使用人工智慧工具。考慮一種在不同設定事項對不同人群進行測試時始終滿足安全性和有效性高標準的工具。現在想象一下,當提供與初始訓練資料在重要方面歧異的不同資料庫時,它繼續滿足甚至超過這些標準。進一步想象一下,只要人工智慧工具超逾性能範圍,其開發人員就同意進行額外的稽核,可是該工具在很長一段時間內沒有出現這種情況。遵循該工具的建議將比遵循其開發之前的一般醫療保健提供者的建議帶來更好的長期健康結果。如果將該工具提交給 SHAP 價值分析,會產生關於哪些輸入有助於其建議的奇怪故事,那麼作者認為沒有理由認為人們應該將其從市場上撤下。繼沙利文(Sullivan, 2022)之後,人們應該將這一結果作為進一步科學研究的起點。表面上奇怪的結果可能需要對基礎經驗資料進行更仔細的審查,並使用其他工具進行進一步稽核。但在這種情況下繼續銷售/使用該工具讓作者覺得很可取,特別是考慮到可解釋的人工智慧工具可能會出現與任何人工智慧相同或更差的性能問題。
ii 臨床遭遇和公共理性
然後,人們可能會尋求關注臨床設定中可解釋性的重要性。這樣做顯然對 Maclure 等人沒有幫助。臨床醫生必須證明他們的措施是合理的,這為可解釋性要求提供了一些支持(London,2019)。公共理性可能是判斷臨床決策的合宜架構。然而,上述現有臨床決策的制度維度也支持來自人類合理化侷限性的平行「政治」論點。佐證說明的人類臨床決策不需要透明,也不需要知悉完美證據。吾人希望它符合吾人的最佳安全性和有效性標準,並建立制度保障措施,以限制不安全或無效護理的風險,並告知吾等標準哪些決策有「佐證說明」。目前還不清楚為什麼吾人須對人工智慧抱有更多期望。
簡而言之,臨床決策已經獲知一系列制度流程,該等流程提供臨床醫生可以並且確實使用的資訊來佐證說明決策的合理性,包括從安全性和有效性審查到專業指南。臨床護理標準由這些程序決定,並設定了合理決定必須滿足的證據標準。這些機制被廣泛認為提供了一個可接受的(儘管尚非完善)架構,用於在缺乏對產品工作機制的充分理解或對其在案例中的準確性的充分了解的情況下對藥物或非基於軟體的醫療器材做出合理決策。這也是現代行政管轄醫療實踐運作方式的基本輪廓。由上可知,尚不清楚如何由制度視角削弱人類合理性的侷限論點。
臨床醫生在知情同意背景環境下具有解釋法律和道德責任(例如:Froomkin 等人, 2019;Kieren 2021)也沒有設定強烈的可解釋性要求。現有規範在各種選項的運作機制下未要求解釋禁止鋰處方(同上)。許多州要求披露建議和替代方案的潛在風險和益處,但不要求披露臨床醫生不知道醫療保健產品如何發揮作用的事實(Cohen 2020;Froomkin 等人, 2019)。人工智慧不透明的事實應該合理地予以披露,就像處理不透明的新藥時一樣。稽核過程中發現的任何奇怪結果也須如此,包括任何基於可解釋的人工智慧的結果。但這並不妨礙未能解釋的人工智慧,特別是當許多病患希望從最準確的工具(意即人工智慧或其他工具)中受益時。
那麼,知情同意流程是另一個最大限度地減少不安全人工智慧使用機會的制度流程,但不支持強烈的可解釋性要求。任何以病患為中心的解釋性要求不須了解人工智慧如何運作等知識。
最近對人工智慧家長作風的擔憂(Luxton 2022;Kühler 2022;Diaz Milian 和 Bhattacharyya 2023)提出了監管挑戰,但也不支持強烈的可解釋性要求。對人工智慧家長作風的擔憂確定了三個相關但嚴重的問題(i)人工智慧工具可能會為了自身利益而以令人反感的方式過度和隱蔽地影響人,而該種方式不能歸因於人類(Kühler 2022),(ii)人工智慧建議事項可能會被給予不適當的優先級供做出決策(Luxton 2022;Diaz Milian 和 Bhattacharyya 2023),以及(iii)人工智慧決策可能無法考慮病患偏好(同上)。這些擔憂需要對人工智慧如何監管和融入臨床遇到狀況的方式做出反應,但不支持強烈的可解釋的人工智慧要求。
支撐 (i) (Kühler 2022) 的健康應用通常會避免監管審查(Da Silva 等人,2022)。此項風險凸顯了監管的必要性。但可解釋的人工智慧顯然非必要或尚不足以處理基本問題。反過來,人工智慧-提供者-病患間的互動基礎(ii)和(iii)則表明需要一個監管流程,以確保人工智慧和提供者向病患提供足夠的資訊,以便他們能夠做出決定,且兩者皆尊重病患的選擇。人工智慧引入了額外的建議參考點,使知情同意過程變得複雜。然而,尊重病患偏好的需求與可解釋性問題是互成直角交錯。再次說明,病患做出決定所需的資訊水平亦不支持強烈可解釋性要求。家長作風的指控,強調在決定是否使用人工智慧或遵循其決策時,需要考慮整個做出決策的生態系統。反對家長主義呼籲不要明確優先考慮人工智慧建議(Luxton 2022;Diaz Milian 和 Bhattacharyya 2023)並考慮將病患偏好納入原始設計(Luxton 2022)是有道理的。但是,如果人們在缺乏人工智慧操作知識的情況下無法做出自由和知情的選擇事項,家長主義作風的指控才會支持強烈的可解釋性要求。其他知情的選擇事項不需要這些知識,也未能放在此處。
因此,人工智慧使提供醫療保健變得複雜,包括知情同意流程,並強調了關注人工智慧使用背景環境的重要性。安全性和有效性標準以及臨床護理標準宜關注這些複雜作用。有必要仔細研究人工智慧如何在現實世界的共同決策中發揮作用。但解決這些通盤性問題並不需要監管者、臨床醫生或病患了解所有安全和有效的人工智慧係如何運作的。
iii 真正的政治決策和公共理性
人們可能會傾向於關注政治回應的公共層面。公共理性規範更直接地適用於政府。這種回應似乎只適用於關於是否允許或資助醫療人工智慧使用或基於人工智慧的公共配給的公共決定。腳註25。儘管如此,此項可以理解的舉動卻顯松動。現有的決定什麼可以被允許或再次資助的機制不需要可解釋性。近來聲稱公共決策必須對其背後原因透明,然後簡單地接受作者們需要已經存在的類似機制(經過修改)。這一論點還引發了這樣的問題:訴諸公共理性是否能夠「回應」所謂的未能解釋的醫療人工智慧問題。可解釋性懷疑論者(例如:London 2019 年;Ghassemi 等人 2021 年;Babic 等人 2021 年)聲稱允許開發和使用未能解釋的人工智慧醫療是合理的。指出只有達到合理性閾值的不可解釋才是須要接受的,以證實他們的觀點。
限制對配給決定的政治回應同樣存在問題。未能解釋的人工智慧似乎達到合法醫療配給決策最常用的標準,即丹尼爾斯和薩賓(Daniels and Sabin,2002)的當責的責任架構。該架構要求 (b) 與醫療保健決策相關的(a)公共決策,並且預期相關利益相關者會接受;及 (c) 有機會審查和上訴該等決策。它還需要 (d) 法規保證 (a)-(c)。(a)-(d)關於未能解釋的人工智慧使用是一致的。如果配給醫療保健的架構在很大程度上滿足了這些要求,並允許甚至公開資助使用其他已證明有效用的不透明醫療產品,那麼很少有人認為這是有問題的。如果現有的監管審查未能為決策或上訴程序提供充分的理由,就會是個問題。但這不是未能解釋的人工智慧的問題。
如果政治回應只是點出使用醫療人工智慧有正當理由的必要性,它並不會削弱公共決定允許或資助未能解釋的醫療人工智慧使用(或臨床決定使用它們)的理由。因此,該回應並不能證明對可解釋的人工智慧的強烈要求。它支持解釋何時以及為何使用未能解釋的醫療人工智慧是合理的要求。例如,現有架構提供了分析醫療人工智慧案例的方法,這些方法在未能解釋的藥物使用方面被廣泛接受。現有流程的問題證明了改革制度的合理性,而不是禁止未能解釋的醫療人工智慧。以人工智慧特有的問題為名來阻止目前最準確的人工智慧是不明智的,特別是考慮到可能出現意想不到的後果。這並不是「任何能治愈的事情都是正確的」的主張(Herzog 2022)。這是為什麼公共理性不需要禁止許多治愈用品的論點。
最後,關於人與機器在一個迴圈內的交互作用必須確認人工智慧決策的說法(Maclure 2021:435)在很大程度上與目前的爭論是垂直交錯的。上述研究提供了關於人與可解釋的人工智慧交互作用是否可以提高性能的混合多方證據。人與人工智慧的交互是否優於替代方案充其量取決於其他制度設計問題(Parasuraman 和 Wickens 2008)。作者在上文中承認,在評估任何保健產品的允許性時,需要考慮更廣泛的使用背景。但人們無需解決「人在環」的價值問題來解決政治回應或替代方案。關於人工智慧的可解釋性和人機參與的需求的爭論在分析上是截然不同的。當人類存在並且人類可以在缺乏人工智慧可解釋性要求的情況下「檢查」人工智慧決策時,就會出現具有可解釋性要求的技術和哲學問題,例如在藥物和其他器材設置中。
6 結論
要求可解釋的醫療人工智慧會帶來巨大的成本,看起來此等成本並不值得,因為它們不太可能帶來顯着的相應收益。禁止使用經過嚴格審查的工具是站不住腳的,基於該等工具對治療難治性抑郁症或識別需求可以更早、更好、更便宜的早期干預的癌症進行有效治療建議的記錄。要求解釋其他工具如何工作或臨床醫生如何做出決定並沒有根據。既定的制度架構闡明了何時需要做出哪些決定,並大大降低臨床醫生使用不安全工具或以不安全方式使用工具的可能性。廣泛接受的系統用於評鑑未能解釋的醫療決策的使用情況,同樣適用於未能解釋的人工智慧。他們可能需要修改以處理人工智慧問題,但這不會改變支持使用未能解釋的醫療人工智慧的平衡理由。大多數問題都支持法律和政策改革,無論是否允許未能解釋的醫療人工智慧的使用,而不是提供明確的理由反對使用。
呼籲公眾理性評鑑醫療人工智慧的授證、使用或資助是否合理,強調需要佐證說明所有影響個人切身利益的醫療決策的合理性,但不能處理哲學和技術問題,並為強烈的可解釋的人工智慧要求提供論據。聲稱公共理性標準要求專門使用可解釋的醫療人工智慧的說法面臨着與其他論點類似的問題。相反,激發麥克盧爾最有力論點的制度考慮表明,可解釋的醫療人工智慧的政治論點面臨着來自人類思維侷限性的平行論點,並可能引發來自準確性和意外後果的論點。人們可能有理由尋求提高人工智慧對特定目標的可解釋性,例如:培養病患的信任。但是,強烈的可解釋的人工智慧要求會引發問題,而當存在強烈的制度審查的情況下,公共理性並不需要該等要求。
其他聲稱的強烈可解釋的人工智慧要求的原因並沒有經受得住審查。例如,要求可以設定個人在決定做什麼時必須滿足的認知標準,這可以映射責任類別;這可以幫助吾人規範未能解釋的人工智慧(Yoon 等人,2022)。然而,原則上,不透明決策的責任可以合理分配。這樣做會很困難,需要仔細審查是否可以通過產品責任法或醫療事故法,以及上述領域之間的關係來最好地分析相關傷害。未能解釋的人工智慧的結果對策多些了解可以發揮一些作用。例如,若屬於未經確證的群體而使用該工具,提供商便須對使用上述工具承擔責任,無論是否有人了解該工具適用於某些群體而不是其他群體的機制。這就是吾人評鑑類似傷害責任的方式。此外,私領域的法律專家正在為醫療人工智慧量身制定標準。例如,Price II 等人 (2022) 規定提供商有責任評鑑未能解釋的人工智慧開發人員的品質,並確保對工具進行外部確證以避免產品責任。警告標籤也可以在制定適當標準方面擔任重要角色,如同在其他產品一樣(Da Silva 等人,2022)。腳註26。 Contra Yoon 等人(2022),現有的法律標準可以而且確實處理無法提供完整解釋的情況。此外,由於上述原因,要求可解釋的人工智慧會產生問題,即使分派可解釋的人工智慧使用的責任總是較為容易。
關於如何將理由轉化為編碼並再次返回,或事前識別不透明的人工智慧相關問題,或事後解決方案的合理擔憂,並不能完全削弱至少使用低風險的不可解釋人工智慧的論點。當風險較低時限制使用有價值的、未能解釋的人工智慧,而可解釋的工具會加劇錯誤風險,而且作者們承認其他形式的不透明醫療決策缺乏驅動力。人們毋須因為對人類關懷的赤裸裸的渴望而放棄未能解釋的人工智慧的巨大變革潛力。當出於政治正義的理由而試圖這樣做時,人們須切記,人類有很多機會權衡支持和反對在現有行政架構中使用某種工具的理由。腳註27。
腳註:
略
竟
沒有留言:
張貼留言