2023年10月19日 星期四

可解釋性、公共理性和醫學人工智慧 Explainability, Public Reason, and Medical Artificial Intelligence

 Open Access

Michael Da Silva

Ethical Theory and Moral Practice

https://doi.org/10.1007/s10677-023-10390-4

https://link.springer.com/article/10.1007/s10677-023-10390-4

註:此譯文並未涵蓋該文全部事項,相關內容務須參閱各項文獻原本及最新版次。此處係閱讀隨筆,僅供個人學習,非供印刷或潛在意圖出版。

摘要

醫學人工智慧(AI)須為可解釋的」論點代哲、法律和最佳實務文件中泛存在。然而批認為「可解性」並不是一個穩定的概念。「未能解釋的」人工智慧通常更準確;旨在提高可解性的制不會增進理解,反而引入新的問題;可解性要求是臨時性的,而人醫療決策往往是不透明的。最近對這問題的「政治回應」認為,在意義重大景中使用的人工智慧,包括醫療人工智慧,必是可解的,以滿足合法性的基本準:人有理由做出影其切身利益的策,需要可解的人工智慧。本文述了政治回的原因。正如其支持者所希望的,注系性考慮即暗指政治回應受到可解人工智慧的其他論點相同的批,並帶出新問題。亦且使人想到,有未能解釋的醫療人工智慧的策可以滿足公共理性準。最合理的回版本是一個簡單的主,即公共理性需要為何允許人工智慧的理由。但是實際上它並不能支持可解的人工智慧,也不能回應對可解醫療人工智慧的烈要求的批


對「黑匣子醫學」Price, 2015)的擔憂對許醫療人工智慧(AI)工具的批腳註1。人工智慧在醫療保健設置環境中有著巨大力,有可能帶來更準確、更高效率的策、更短的等待時間以及更有效率的源分配(Topol 2019a, b)。然而,多寄予厚望的工具都是不透明的。例如,考早期自意念檢測的深度學習工具(例如:Roy 等人,2020 年)或針對抑郁症抗拒治療的定製建(例如:Pigoni 等人,2019 年)。些可以提供更準確、更有效的心理保健,但缺乏們這樣做的明確機制的了解,甚至可能缺乏關於哪些輸入對結果貢獻最大的可能性以及如何(獲致該項成果)提供一個合理的故事。腳註2。然而,許多人擔心,例如:甚多支持人工智慧(尤其是深度學習)的工具可能會導致錯過人工智慧引起的錯誤和偏見,或者破壞為醫療決策提供佐證說明的正當理由,從而破壞對人工智慧的信任。某些極佳的可解釋人工智慧(XAI)(定義如下)。

生、病患和新者聲稱擁有理解醫療人工智慧的「」(Panch 等人, 2019)。烏爾辛等人(2022)建議所有生物倫理原則都需要可解釋性。XAI 的倡導可見於學術界、法律/政策和產展。者(例如,Lundberg等人, 2020Yap 等人, 2021)推 可解釋人工智慧。有些人(例如:Maclure 2021)甚至提出「強烈」可解性要求,意即只有高可解值的人工智慧才可採用。多政策制定者接受論點。也就是盟《通用資料護條例》包括要求解釋的法律權利,而可解性是安大略省(2022)人工智慧道德首要原的一部分。因此,可解釋人工智慧發展仍在繼續Arrieta 等人,2020)。

管如此,此份論文仍然捍使用至少風險較低的未能解的健康相人工智慧,仍須接受格的性能測試和行政決策機搆評估可解釋未能解釋的醫療人工智慧的價值。此處專門為該等使用辯護,以應對新的政治批評,由麥克盧爾(Maclure2021)甚有力地闡述了此項批評,認為未能解釋的人工智慧無法滿足羅爾斯公共理性標準(羅爾斯Rawls1993)。腳註3。作者展示了公共理性所要求的醫療設置環境透明度和當責水準不支持嚴格的 XAI 要求,且行政管轄可以對醫療 AI 的準確性和安全性查,以滿適當的政治準。作者的論點旨在展現人工智慧不需要在任何的烈意上都是可以解釋的,就可以被允在市上提供或由醫療專業使用。作者並不是可解性工具在適當的安全性和有效性查所需的任何模型核中有任何作用。相反,作者認為某些人工智慧不需要符合強烈可解性要求以資通公共理性準所要求的查,並且如果它了此類審查,些人工智慧就可以合理地分配、使用,甚至可能得到資金補助。

作者首先概述了可解醫療人工智慧的論點。然後,作者調問題並鑑別新穎問題,亟需可解醫療人工智慧,而釐清顯著的論點。接下作者概述了政治回應。作者提出了兩種讀法,但兩者都繼續。一方面,法務要求基於對人工智慧如何作的了解以做出定。其他要求可解性和新穎問題並行的問題。另一方面,法務要求提供人工智慧在某個領域被允的理由。此點直接用人工智慧外部的規範,並不涉及人工智慧的不透明性,因此不會對其表面上否定的立做出回。作者最在更泛的論議中著重未能解釋的人工智慧的反

本文分人工智慧、醫療保健和治理具有實務和理。其目的是「不動計和其他科的學術辯論,而且推學內部的學術辯論,進一步闡明「基本問題和概念」,(Zimmermann 等人,20222)。實際上,它引發了關於未能解釋的人工智慧是否得以允許進入市場,以及是否應該有法律要求的解釋權利之爭論(Watson and Floridi 20219213)。其潛在的邏輯影響了此類權利的範圍:它可以支持某種形式的醫療保健例外論,以不同於其他人工智慧內化產品的方式對待醫療技術,或者表明,如觸發可解性要求,並非所有醫療人工智慧都視為意義重大分析涉及是否存在解釋的道德權利以及如何涉及利益相者的義務問題。闡述事項澄清了行政管轄的合法性問題,以及負責處理全球技術變革的自由民主化行政管轄看待公共理性的含。即使作者的闡述未達目的,其中的資料對於詢問人們是否以及如何待並行於人和人工智慧「做出策」之的相似之處應該是有用的。


1 背景/詞彙

首先義開始,人工智慧在這裡是「可解的」,人可以理解它如何以及做到策。 可解的人工智慧(XAI) 通常用於處理人工智慧「不透明」的問題,其定義為人工智慧「難於理解它為什麼要做它所做的事情或知道它是如何工作的」(Zednik Boelsen 2022220)。腳註4。人工智慧可能不透明的原因有幾個。有些問題只適用於某些人工智慧。考慮多少層的深度學習演算法如何從觀察角度隱藏相關處節點,或者「自適應學習 (ML) 工具如何時間推移資料行和操作方式生不可預測化(Price 2015, 2017, 2018)。其他問題普遍存在。考一下當術語從自然言翻譯成代碼並反向翻譯回來時知識會丟失,從而芒芒然做出決策的擔憂(Pierce 等人. 2022)。儘管如此,可解釋的人工智慧倡導者仍然希望利益相關者能夠理解如何以及為何提供人工智慧資料庫 A X 做出B

可解的人工智慧及其目觀點了可解醫療人工智慧爭論中的大多數現象。然而,它承存在差,包括系統層級(工具通常如何行)和層級(特定情下如何工作)以及特定模型和通用模型的不同解釋間的差異(Watson 2021)。一般是關注「可說明的」人工智慧和可解釋的人工智慧。這兩個術語可以互使用,作者們採取不同方式予以分(Watson Floridi 20219212Watson 2022a)。例如,Babic等人(2021)建說明的人工智慧使用透明函數事項。它的入事項、重等都是可以理解的。因此,吾人可以了解策是如何做成的。相對而言,可解的人工智慧使用某人工智慧模型來間接「理解」另一不透明的模型。例如,人可以建一種類似的、透明的演算法搭配輸出事項,而不是原先的訓練資料Watson Floridi2021)建議關注可說明的人工智慧,以強調說明的主(表面上)客觀的解釋目標」,以及與機器學習相關的獨特問題。然而,Zerilli2022)根據代理者層面/民間心理理解以定義可說明性,並表明這只是可解釋的人工智慧的三個目標之一。腳註 5Herzog2022)隨後指出,「可理解性」係「通用」項目下的子集,另外尚有「可解釋性」,但表明「可解釋性explicability」是個較好的通用術語,側重於「可以在實踐中獲得理解和加以利用的解釋。」腳註6

可解的人工智慧支持者提出了可接受的醫療人工智慧須滿足的不同知目(可說明性、透明度、理解性、可信度等)(Arrieta 等人,2020)。他們尋求解問題有幾,包括「黑匣子」、「可解性」、「透明度」、「可說明性」或「可懂度」問題Maclure 2021422)。有些人試圖人工智慧工具「做了什麼」,而另一些人則試圖它「什麼」果(Zednik 2021274)。不同的利益相關者——人工智慧開發者、用戶、監管者等——可能需要處於不同的認知狀態才能實現不同的目的(Tomsett 等人, 2018Zednik 2021)。適合這些任務的解釋類型可能更加不同。人們可能需要區分用於稽核等目的、以模型為中心的解釋、可以支持決策的以臨床醫生為中心的解釋,以及側重於信任和知情同意的以病患為中心的解釋。腳註7。然而,XAI 倡導者尋求解釋「告訴我們為什麼 x是真的」(Watson 等人, 2019),其中 x 代表輸入-輸出關係。如果不清楚人工智慧如何「達到特定的輸出」,就會出現所謂的問題,從而破壞信任、接受和責任(Ratti Graves 2022)。

此份作品使用可解的人工智慧其通用的論證目的。 「可解的人工智慧XAI是否最能描述所討論象,幾乎有任何爭議對可解釋的人工智慧的呼籲有多形式,但共同的基本承是,只要能人工智慧如何以及何做出策,人工智慧就應該可用。更具,大多認為人工智慧是「可解的」,前提是人可以提供一種查核機制明人工智慧做出的策、支撐做出決策的規則,以及特定入在投入人工智慧以觸發規則時其將如何產生決策。他們認為,可解釋的人工智慧至少承認對集合輸入如何以及為何產生特定結果的「高階」解釋。腳註8。 這並不需要一個完整的原因—結果故事來說明工具的每個元素如何以及個結果做出貢獻。然而,如果人工智慧要符合可解準,就應該透明的設計或使用助演算法提供其操作的一般查核,(至少)識別出最有可能對結負責的若干元素,並且人工智慧認為們配合的合理理由。這種對可解性的極簡存在爭議,但它抓住了烈的可解性要求倡者所謂的望,同時為提供了比其他解泛的論證舉措。由此體現了寬大的原此相一致的是,作者保持不可知論者身份,所以毋須知道識別人工智慧如何做出策的方法是系統層面、事前是事後,及其所需的精術資料

基於上述可解釋的人工智慧的定義有多種形式。例如,巴比奇等人(2021)的區別跟蹤並可以重新表述為「固有」(或「內在」)可解釋性和「事後」可解釋性之間的另一種區別(Watson 202149ffGhassemi 等人,2021)。固有的可解釋性是關於人工智慧如何做出決策的事前透明度,使得人工智慧輸入和輸出之間的關係清晰。內在可解釋的人工智慧不會引發明顯的可理解性問題;人們總是可以解釋輸入如何產生輸出(Watson 202149)。當它們包含「具有清晰內部結搆的簡單模型,導致廣泛嘗試對潛在複雜的黑盒子模型使用事後解釋」時,它們最有可能發揮作用(Poursabzi-Sangdeh 等人,2021)。事後可解釋性工具試圖理解人工智慧工具是如何「決定」的。它們包括使用更透明的二階輔助人工智慧來重現原始(但在其他方面不透明)人工智慧的結果,或提供輸入對這些結果的貢獻程度的統計概率。

多事後可解性工具人工智慧流程為內在可解的人工智慧工具的更複雜版本,例如性回規則清單。考「特徵屬性方法」,它試圖確生特定出的程度(同上)。複雜性回規則清單嘗試使用更容易說明的替代方法近似一些複雜的函數關係」(同上:49)。例如,局部可說明模型無關的解 (LIME) Shapley 加型解 (SHAP) 提供性回歸方法,可以近似並最好地解其他不透明的工具,如深度神經網路模型,(同上;Watson 2022b1503) 。規則清單旨在提供相同的功能;它通常被形象化為帶有一系列「若...(if-then) 句」的Watson 2022b1506-1507Zerilli 2022Zednik 2021277)。些工具以不同的方式提供「說明」。例如,SHAP 是一系列事後技的一部分,包括可化、統計分析等,旨在「識別中的高任域入」(Zednik Boelsen 2022222)。其他示例包括熱圖,它為每個輸入對輸出的責任域分配值,並在決策區域的顏色編碼「地圖」中直觀地顯示之,以及特徵檢測器可視化,它以圖形方式表示關鍵輸入(Zednik 2021275–276) ,281)。相比之下,LIME 是「代理建模」的一種形式,人們通過近似不透明人工智慧的二次人工智慧尋求理解(Zednik Boelsen 2022221)。還有其他可解釋性工具衡量輸入層級事項影響各個結果的程度,包括通過與周圍環境中的結果進行比較(如分層相關性傳播)(同上;Zednik 2021)。

一些可解的人工智慧工具法提供入—關係的完整因果故事,人能期望對「如何」做出決策有更強烈的機械型查核,但上述每一項都可以幫助滿足上面對可解釋性的更廣泛的定義。如果他們不遵守這個定義,他們就超出了作者的調查範圍。作者的現象是否最適合使用「XAI」這個術語,仍然付諸爭議。但這種機械型查核在多個領域都有先例,包括當前辯論中關鍵人物的工作,如:Maclure (2021) London (2019)。至少,醫學領域的強可解釋性倡導者尋求此類知識,以便為專業人員提供指引,以得知人工智慧是否可能在適當的基礎上做出決策,並告知病患相關資訊。這需要對人工智慧如何以及為何做出決定有一定的了解。即使是號稱的可解釋的人工智慧既不是也不能提供人工智慧如何運作的完整因果故事,仍然試圖完成此項基本任務。腳註 9

因此,可解醫療人工智慧倡保(至少)醫療專業理解人工智慧用做出策的。許多倡導者進一步希望了解某個領域的因果關係以及解釋它們的原則(London2019)。腳註 10。 為人工智慧「可解釋性」設計的方法旨在在輸入和輸出之間建立牢固的關係,可解釋的人工智慧倡導者再次表明希望解釋究竟係如何做出決策。雖然倡導者可能不需要完整的因果故事,但他們會尋求足夠的資訊以識別最有可能果的制、規則和輸入,並保證這些都是精心選擇的事項。問題是所有醫療人工智慧是否都須要在此種意上得到解。在引作者的面回之前,作者將簡要解釋為什麼多人認為們須要這麼做。


2 簡述可解釋醫療人工智慧的論點

可解醫療工智慧具有許多好處。一些人認為,可解釋性要求可以通過消除原因—結果噪音或識別可能破壞穩健性的「攝動」等方式來提高性能(Arrieta 等人,202083)或幫助識別/修復「缺陷」(Poursabzi-Sangdeh 等人,2021Watson)和 Floridi 2021: 9212–9213)或技術性問題,例如「過擬合」,即人工智慧對於一個資料庫甚為準確,代表其解決方案無法泛化(Watson/Floridi id。)。腳註 11 。其他人建議可解釋的人工智慧最好地識別安全風險、導致人工智慧引起的危害機制等因素,以及處理這些問題的方法:很難處理無法事前預測或事後理解的問題(同上;Arrieta 等人,2020 年:83Poursabzi-Sangdeh 等人,2021 年) ;Ghassemi 等人,2021Yoon 等人,2022)。如果人工智慧是可解釋的,偏見和相關資料問題也可能更容易偵測和解決(Yoon 等人,同上;Watson Floridi 20219236)。

進一步的論點表明,可解釋的人工智慧促進透明度,並更廣泛地幫助證明人工智慧相關決策的合理性,當決策將影響切身利益時,此點是必須要的,或者促進對人工智慧的信任,這是確保其潛在利益所必須要的(比較,例如:倫惇 2019 年;Ghassemi 等人,2021;麥克盧爾 2021)。人們應該得知對影響他們的決策做出解釋,如果沒有這樣的決策,即使是有益的人工智慧使用也不會接受(另見 Poursabzi-Sangdeh 等人,2021)。

據稱,可解醫療人工智慧可以促進許與內知或政治善意、基本安全和其他工具性商品(例如:公眾信任)相的商品。此的呼籲並不令人意外。更大的版本支持惟使用可解醫療人工智慧,甚至支持禁止在醫療保健境中使用不能解釋的人工智慧工具的法律準。


3 可解醫療人工智慧的爭端

儘管如此,關於可解釋的醫療人工智慧的爭論仍然面臨着爭端。作者將首先概述一般性爭端然後再討論此處所討論的新的政治問題。例如,很難確定相關的認知或道德目標。作者們稱其為「不精確爭論」。「可解釋人工智慧」的論點再次引用了不同的認知標準。如果人們將「理解」作為基本規範(Arrieta 等人, 2020Sullivan 2022),那麼對於醫療人工智慧的要求仍然沒有良好的技術定義(Ghassemi 等人, 2021)。法律標準,例如歐盟獲得「有關自動做成的決策背後邏輯之有意義資訊」的權利,並沒有解釋作者們是否應該尋求內在或事後的可解釋性,或者幫助指出滿足上述兩者之一標準所需的技術標準。人工智慧是否需要原則上能夠被相關方(例如:醫生)理解,或者實際上被某些群體(例如:大多數醫生)理解,才能正確地獲得「可解釋」的資格,目前尚未明確。

不同受眾需要不同類型的解釋(Arrieta 等人,2020)的擔憂也引發挑戰。監管機搆允許銷售某種工具和醫生使用該工具所需的解釋程度可能有所不同。 可解釋的人工智慧的擁護者承認這一點,但此點所帶來的問題比許多人認為的還要嚴重:指定《所有》相關的認知標準是一項艱鉅的任務,而吾人現在缺乏《任何》精確的標準。而且,正如吾人將接著看到,各種目的所需的理解程度通常不需要對支撐決策的機制進行解釋。這對於可解釋的人工智慧倡導者以模型為中心、以臨床醫生為中心和以病患為中心的目標來說也是如此。


產品的可解釋性同樣地不明確。它們是內在的還是工具性的?認知性還是道德性?腳註12 。如果不明確可解釋性應該提昇什麼,就很難知道可解釋性應該意味着什麼,也很難評估相關的論點。工具式論點需要實證支持更強烈的要求,故支持者不太可能提出之。例如:可解釋性對於解決偏見問題或保護隱私來說既不必要也不充分。即使那些訴諸偏見問題的人也承認,可解釋性只會讓解決這個問題變得更容易(Yoon 等人,2022)。處理這個問題的其他方法可能在技術上或其他方面更優越。畢竟,奧伯邁耶等人 (2019) 鑑別出不可解釋的人工智慧中的偏見。

如果更有經驗的查核能夠處理上述問題,那麼實證考慮就會帶來更多挑戰。其中之一起源於可解釋性要求減損醫療人工智慧的潛在益處。可稱之為「準確性的爭論」。即使是最好的醫療保健系統也會遭受高發生率的醫生診斷引起的損傷、漫長的等待時間、高昂的醫療成本和提供者偏見的困擾(Da Silva 等人, 2022)。人工智慧在整個護理領域的進步提供了提高準確性、提高效率的前景,並且如果正確校正,可以減輕提供者的偏見(同上)。這些產品依賴於人工智慧性能,但與可解釋性的相關性不足以佐證強烈的要求。 「沒有邏輯的或統計的保證可說明模型將優於競爭對手黑盒子,甚至無法成為任何給定預測問題的羅修孟高性能模型集合」(Watson Floridi 20219235)。最有效的人工智慧並不是最容易解釋的人工智慧(London 2019Babic 等人, 2021)。不可解釋的深度學習人工智慧促成了許多最近令人興奮的醫學發展,包括上面的心理健康例子。腳註13

固有的可解釋性要求放棄了深度學習的可能性(Babic 等人, 2021)。簡單模型不會出現嚴重的準確性問題(Poursabzi-Sangdeh 等人,2021)。然而內在可解釋的深度學習不太可能可予以證明可行。未能解釋的深度學習在醫療保健環境中已經很有價值,並且具有巨大的未來潛力。事後措施可能無法填補對有效部署至關重要的剩餘知識落差。許多人並不關注現實世界的準確性,而是關注創建適合「黑盒子」人工智慧的「白盒子」演算法(Babic 等人,2021)。它們加劇了不準確的風險:主要演算法和可以解釋它的白盒子人工智慧都提供了技術錯誤的機會(Ghassemi 等人,2021)。相比之下,熱圖和其他非代理建模工具並不依賴於白盒子。從理論上講,未來的創新可以最大限度地減少「可解釋性」和性能之間許多現有權衡的必要性(Rudin, 2019)。然而,即使是最好的現有和提議的事後工具也會引起非最低精度權衡問題,並且對輔助演算法的依賴仍然會帶來新的誤解/錯誤的機會。如果熱圖等避開了這些問題,擁護者仍然承認他們的解釋無法達到許多目的。

第二個實證論點,「自可解制侷限性的論點」,指出可解釋的人工智慧的形式實現知或道德目。此處于有的混合證據不能支持強烈的可解性要求。例如,最近的一研究表明,簡單模型的少許特色可以增理解,但不更契合地遵循建,因為這會有益並削弱識別/矯正重大錯誤的能力(Poursabzi-Sangdeh 等人,2021)。巴比克等人(2021)表明事後可解性工具法充分更好地理解原先器材的工作,並錯誤的理解(「替代品」),持了不透明相問題。加塞米等人 (2021) 多可解性工具(熱圖、背景環境言模型等)展示了與決策相容,但有展示其何相或是否曾經須要相。就連可解釋的人工智慧擁護者也承它只在特定件下提供商品。例如,Zednik2021286)建議熱圖回答「什麼」和「什麼」問題,而特徵檢測器可化可以回答「如何」和「在哪里」問題,但者在底層資料從語義可解性的情下效果最好。然不同型的解可能再次合不同的利益相者,但多工具的解釋與臨策相的解並不相同(Lindsell 等人,2020)。因此,初 AI 可能仍然滿強烈可解釋的人工智慧者提出的任何使用準。

更為正向的資料並不能佐證強烈的可解性要求。例如,Tschandl 等人(2020)在一封信中,在他的研究中,人類評估者在接受可解34 經網路的通知後更加準確,並提出「基人工智慧的預測的解可以可理解的視覺概念」(同上20201232)。然而,他們還報稱:「如果人工智慧出故障,使用可解工具的人很容易表出低於預期的能力,無論是技術促進其說明事項,或是可解性帶有風險導致負面影響。」尚不清楚。另一研究表明,可解性工具可以在人和人工智慧之提供一「界面」,例如淋巴結診斷工具可以「集成到更泛的《醫學文化》診斷中」的分Ratti 2022)。然而,可解性工具並不是唯一可能的界面。即使是最有效的方法也可能並不合所有人。多主要的事後可解性工具在受保着差Balagopalan 等人,2022),此乃浸蝕可解性要求的主儘管 Watson (2022a) 樂觀認為的人工智慧決許問題,但仍然存在挑

加塞米等人。 (2021一步指出,有的事後可解性工具法準確識別如何行並做出特定策,這讓述間隙,並提供了反正都要做出策的掩反映了人普遍的擔憂,即人工智慧通常為應該開質疑的深刻政治策提供中立的外表(例如,Benjamin 2019(主要是關於))。如果目是做出更好的策理由,事後措施將無法提供些理由,並且可以其他有問題的主提供技上的合理性。如果目是當制,至少事後的替代性理解根本不允許進適當的「查」。此外,人工智慧境中當制的含仍在展中(Johnson 2021),生硬的可解性要求可能限制展更致的觀點的機會

對於實現關最終所需的理解而言,增加透明度然不是必要或充分的。 Sullivan 2022認為學習工具的真正問題是「缺乏支持模型標現象之間聯繫的科經驗證據」。相狀態需要理解演算法其建模的象之關係,而不僅僅入集 X 如何Y。事上,沙利文認為,如果《不透明的》人工智慧「存在足接感趣的象的模型。」如果是這樣,「可解性」要求可能變成掩人耳目。人需要一更好的方法來確保演算法真正模擬現實世界的象。 可解釋的人工智慧顯然也不適合該等要求。

沙利文接不」的更廣泛擔憂仍然存在,這種「鏈接不確定性」涉及吾人對模型功能的理解與外部證據之間的不一致。腳註14。然而,至少許多鏈接不定性相問題可以通個醫學研究程中更證據標準得到更好的處理。例如:沙利文指出,醫療案例中存在接不定性的問題缺乏有種醫療狀況強烈經驗資料供輸醫療人工智慧(同上:124-125)。因此,她建使用支持深度學習的人工智慧於識別新的研究問題,而不是直接通知理單位。然而,如果人工智慧在任何情下都可用,那麼礎資料品質和人工智慧性能兩者的更高佐證標準可以最大限度地降低鏈接路徑不定性的風險以及任何之而的危害。一步的理由要提高多產業的安全性和有效性查的證據標準,並適當標準的不斷發展,在缺乏強烈證據的情人工智慧保持慎(Da Silva 等人,2022)。然而,強烈可解性要求然不一定適用於這些目的。它是否有必要處理相經驗問題仍不清楚。上述/下述的容表明,充其量只有某些可解釋的人工智慧問題可能比它提出的問題還要多。

然後,「自非預期後果的爭論」指出,制使用可解釋的人工智慧可能會適得其反。西姆特等人。 (2021發現使用演算法系可能壞領家運用其專業的能力;非定製適應的可解制可能會導致自動化偏見和演算法移位。泛泛而言,人在使用可解釋的人工智慧時可能更

容易受到自化偏的影予它不適當的尊重,因此未矯正錯誤事項Poursabzi-Sangdeh 等人(2021)指出,即使在更簡單的模型上,其研究參與者識別矯正錯誤。雅各布斯等人。 (2021)指出對人工智慧如何運作或做出決策提供任何解釋,都會增加醫療保健提供者遵循不準確的人工智慧建議的可能性。腳註15 。甚Tschandl 等人(2020) 發現時間的推移,可解釋的人工智慧工具的用戶開始忽視可解釋的人工智慧然此等經驗尚值得商榷,但對可解釋的人工智慧要求可能因提供錯誤的理解而害安全性的擔憂目前是合理的。

此外,人們對可解釋的人工智慧的呼籲也令人覺得怪異,因類做決策時也是不透明的。「自人推理侷限性的論證」(Maclure, 2021)指出,人工智慧在滿足相關認準方面並不比人差。人醫療決策通常是在等的作用有清楚了解的情行的。支持可解釋的人工智慧論點樣擔心人工智慧制真的因果關係London, 2019 年)。人也缺乏這種能力。人們期以一直使用乙酰氨基酚(Ghassemi 等人,2021 年)、阿司匹林和London, 2019 年)等物,但並不了解它們關於健康益制。醫療實踐需要在缺乏根本原因充分理解的情下根大量證據做出判(同上)。目前不清楚什麼人工智慧應該的解性「負擔」(Watson等人, 2019),而人類從業者無需克服(此種負擔)。要求人工智慧可解釋依賴於對技術的不當偏見。作者們不會容忍一個沒有乙酰氨基酚及其益處的世界,即使它的運作永遠無法得到解釋。對人類福祉的損失將是巨大的。同樣地,某種人工智慧,即使經過嚴格審查、可以極大改善人類福祉的人工智慧,只因為它未能解釋,吾人就不支持。當強烈的可解釋的人工智慧要求也為技術錯誤和人為濫用人工智慧資料提供機會,而強烈的可解釋的人工智慧要求不太可能處理所面對問題時,尤其如是。腳註 16


4 政治回應

政治考仍然強烈要求可解醫療人工智慧。可解釋的人工智慧醫療保健等高風險環境中的一論點側基本的自由民主政治承,而不是規範。正如 Vredenburgh 2022210寫道,「不透明的演算法可能使用它機搆的合法性和公平性。」人們應該對直接影策得到解。任何人的行他人的切身利益,都必以受影法合理拒的理由來證是合法的。腳註17,他待了受影者。政府只有在提供正理由的情下才能有效地限制主定。這顯然需要理解策的基。因此,政治合法性只允許使用其操作和策可以解的人工智慧。健康然是人的切身利益。因此,醫療人工智慧的使用必是可解的,以持基本的政治合法性。本項論述的其餘部分描述並估了對可解釋的人工智慧關問題的「政治回應」。

Maclure2021「人推理侷限性的論證」的回可解釋的人工智慧論證的最完整版本,並以可能需要精化相關認知和道德準的方式回了一些實證擔憂事項。根Maclure (2021: 427),公共理性要求影響個人的策的理由是公開可獲得的並且可以接受,即「至少……法律的政治概念相符合」。 ……[可解性因此是必要的,以便]可以仔細檢查和評鑑化的策內容。」話說,人知道什麼做出影定。因此,合法的政治策必是正的、合理的。未能解的人工智慧滿件。因此,Maclure (422) 強烈的可解性要求:人類組織……應該在法律上有義務證明有能力解和佐證說明演算法策的合理性……[]受影者的福祉、利和機會。」

Maclure (431) 法,人類決策的不透明性不能用來「辯解」人工智慧策的不透明性。公共理性諸多準在不同背景環境下都是持的。人推理的侷限性聲稱人工智慧在滿些侷限性方面並不差,論點賴於問題人主。必須突顯政治域給予理性內容,而非從制度視角審視。例如,大型法律和醫療保健系統為特定策提供理由,填人容易犯、不完整且(有?)不透明的理由定的空白。未能解釋的人工智慧不存在似的系;人工智慧研究人員無法「一段代成一可以用自然言表的佐證說明」(426)。深度學習人工智慧中的節點可能也是如此;常人法翻譯其人無察到的事物。正如 Maclure (431) ,在未能解釋的人工智慧的爭論中,「人類給出理由的社和制度象限的重要性被忽了」。在人案件中,制度提供「更加慎和透明」(432)的策程序(法庭訴訟、行政查等),在人工智慧案件中尚屬從缺。

如果盧爾(Maclure)論點得以持續戰關於未能解釋的人工智慧的論點,不僅限於人推理的侷限性。例如,如果使用未能解釋的人工智慧是非法的,那麼使用事後可解性工具解術問題即為確保目前不透明的人工智慧的諸多益關鍵然政治回應對統層面理解的注可能滿足一些可解釋的人工智慧倡者的望,後者指出社和制度進展提供必要的解並不能免除人理解它任。根據這一回人可以聲稱其切身利益的定只有在可以理解的情下才是合法的。如果系統層面和面所要求的解不同,制度程序仍然會產生可以為個策提供既知的資訊。例如,通過嚴格的安全得的知識係與知情同意直接相關

盧爾(Maclure)論點適於醫療設定情況盧爾(Maclure)主要心的是組織對未能的人工智慧的使用。包括健康部、醫療保健機搆等出於合理化或規劃目的所使用之。它可能涵哪些人工智慧工具入市或公眾助之的策。然而,盧爾(Maclure) 尚討論了可解的治診斷決策的必要性,提出如知情同意必然涉及提供者病患直接關係等概念。這點表明他也希望在床情況中提出強烈的可解性要求。腳註18。然而,任何須要說明的狀況都可以最小化:作者將證明任何盧爾(Maclure)式的論點像其他可解釋醫療人工智慧的呼籲所面問題题。只要存在保人工智慧安全/有效性的強固的制度手段的情下,至少有一些醫療人工智慧准允分、使用,甚至得到助,即使缺乏強烈的可解性要求。

5 政治回應的問題

政治回應有其優點,但面關於可解醫療人工智慧的論據問題,並引了新的問題。其最合理的形式並不能應對了展現此,作者首先解釋現機搆行政程序的修改版本如何在缺乏強烈可解性要求的情滿足公共理性準。然後作者釋為什麼以及何時臨生可以使用一些未能解的人工智慧。最後,作者詳細說明了什麼強烈可解性要求甚至不需要滿足相的真正政治(例如:配策的公共理性規範論點共同表明,一些未能解醫療人工智慧可以得到允的分布、使用和(很有可能)受到助。


i. 制度準和公共理性

首先同意盧爾(Maclure)提出的制度上查可解問題的必要性,無論其是否特定的醫療保健提供者的策,健康司法所需的公共理性從來不需要醫療工具工作方式的完全透明。他要求做出策的充分理由和挑戰決策的機會,而些理由可以而且常在有可解的工具的情下提供。估人工智慧工具的法律制提供了評鑑性能、成本和採用原因的機會,以及評鑑準確性和合理性的架構,即 Maclure2021評鑑政治主羅爾斯準則。作者建強這些制度,而不是禁止未能解釋健康相的人工智慧,甚至的可獲得性建立一可撤的推定。

考慮一下在英國、美國或加拿大等西方自由民主國家的臨床條件實施之前所釆取的典型路徑工具(Minssen 等人, 2020Levine 2020Homeyer 等人, 2021Flood and Régis 2021)。大多數醫療人工智慧工具都是從臨床試驗開始的。許多試驗都受到支持研究的資助機搆的研究要求以及特定地點(醫院、大學等)機搆/研究倫理委員會的要求。許多還受到聯邦或州法規的約束,例如加拿大健康部關於人類研究的法規。腳註21。臨床試驗由幾個階段組成。人工智慧工具在執行每個步驟之前必須滿足性能保證。如果滿足性能標竿,則可能會保持其他測試項目。例如,開發人員的人工智慧若符合「醫療器材」定義,就必須通過安全性和有效性審查,然後才能放入市場。該階段的證據標準經常受到批評,一些工具逃脫了監督審查,但在非人工智慧/藥物設定中也是如此。腳註22。此類事項適所有受管的健康品,而不僅僅是人工智慧。

特定背景環境提供了一步的保障。在家,州/省的規則(例如:於醫管的規則定了在州/省提供哪些商品。反過來,在公共助的醫療保健系中,政府策者定提供哪些商品的制。例如,加拿大各省關於將哪些容添加到公共醫療處方集(即公共系中可獲得的商品)的定通常是通使用品質、效率、成本和其他相關度量外研究(例如:健康技術評鑑)獲得資訊以定之。(Flood Régis 2021)。在提供者得商品(放行)之前,每人必遵循一制度流程中的每一步。然後,個別提供者必做出定符合專業實踐指南和私領域法規準。該過程中的每都提供了有助「佐」商品使用合理性的資訊,並涉及與決/措施是否符合公共理性相關的價值觀。如果某個步驟在某特定州出現狀況,它們仍然共同提供一個架構來評鑑使用某商品是否有所佐證。既然可以用於評鑑尚不透明的人類決策,亦當用於人工智慧。

那麼,「制度」考量亦可展現評鑑醫療工具開發和使用的既有機搆如何能夠評鑑未能解釋的人工智慧分和使用的合理性。對於以模型和中心的評鑑架構來說確實如此。然某些既有的醫療工具評鑑機制存在困。並非所有人工智慧工具都面上述每個階段的仔細查。但未完善管並不能辯駁強烈的可解性要求是正的。例如,物和醫療器材的安全性和有效性常因其證據標準低而受到批Da Silva 等人,2022)。然而,準尚未低到不合理地放行所有相商品的使用。查的其他段提供了針對數位化包治百弊的保障措施。如果人不相信人類宜於防止用的適當保障措施,那麼很理解什麼這應該有利於繼續提供者的定而不是未能解釋的人工智慧的定。如果前的問題是人不佳,那麼更多的人類措施係不平常的解方案。此外,此處證據型問題可能所有保健品;因此,他不支持單獨對醫療人工智慧提出強烈的可解釋性要求。那些對證據趣的人應該指望人工智慧以填的洪溝。那些「正策感趣的人毋須太快接受可解/準確性的衡結果。

機搆要求行修改以解人工智慧相關問題,但問題似乎可以在大的可解性要求的情下得以處理之。例如,Ratti Graves2022)建議監機搆應要求解工具的建構方式,包括「在設計人工智慧工具時做出的技術選擇」的文件和給出理由。他指出,準建議創新者「提供一串技要求和規範,以中立、一步步的方式述……[以及]何所做出的技術選擇係產總體效果為最佳選擇的原因。」然他認這個問題將決訓練演算法的程序的不透明性,而不是演算法本身,但可以處理在的問題。另一方面,正如作者在之前 Colleen M. Flood Mathew HerderDa Silva 等人, 2022)的工作中詳細討論的那,西方自由民主家的機搆真正自適應學習工具來看待獨特的問題,比如事前識別問題的困,並提供規劃人工智慧助益醫療器材進行中的管改革的原。本文作者的協同作者提倡強烈的上市後制,包括定期的第三方稽核,並認為這制不能以牲上市前。事上,作者們認為,短期適應機學習器材上市前查的證據標應該更高;如上所述,學習「有效性」準不斷變化,機搆在制定程中保持慎。作者們進一步注意到,機搆過大了安全性的理解,並且應該為人工智慧這樣做,以解決與的安全問題。此Tschandl 等人(20201232)呼籲人工智慧現實世界測試,如果需要足證據來建立因果關係,也可以處理對鏈接不定性的擔憂關鍵是看似合理的改革並不要求可解釋的人工智慧

直接面向消者的人工智慧工具可能不上述所有段,但一些被視為非屬人工智慧消品可接受的段,並受到限制使用的規範束。因此,制度上的相似之仍然存在。有的制度保障問題顯然並不是未能解釋的人工智慧的問題。他指出普遍需要改進機制,以醫療保健策在整個護域都是合理的。如果物和其他器材也存在問題,就必烈的可解性要求留下了存的擔憂,並阻了有益工具的使用。

行政策本身是否合法,很大程度上超出了作者的探究範圍。但是,行政策必接受查,反之則須達到基本的公共理性準。上述修改改善問題。如果他明所有行政策的正性,就也不作者的提關於行政機搆對其他醫療保健行合法管的論點似乎也人工智慧,人工智慧的管可以滿足在其他地方被視為合法的公共理性準,機搆可以保有人工智慧使用的策也符合準。未能解釋的人工智慧工具符合合理性準,而可解制的侷限性表明多工具可以更好地滿足正準。因此,阻止他是缺乏動機的。如果某些人工智慧不透明性使得更加困則上面/下面制可以確事前和事後的安全性和有效性。在某些情下,人工智慧的一個錯誤可能造成重後果。但在更常的情下,允風險的未能解釋的人工智慧是明智的,因的情有更好,而且人工智慧存在保障措施。

可解性工具可能是稽核過程的有用元素,但工具是否易提交到可解釋的人工智慧流程不應決定它是否可以通過強固的替代型稽核流程以可和放行使用。例如,SHAP LIME 可能模型稽核有用,即使它們沒有完全明人工智慧操作。註腳24了解哪些輸入最有可能對結果做出貢獻,為人工智慧決策提供了合理的基礎— 並可以幫助評估(可能的)底層機制。這可以助處理由於過合而致的定工具有研究中被明安全有效的擔憂,通提供除粗暴果之外的稽核決定外方法。然而,SHAP 值可能並不定作者是否應該使用人工智慧工具。考在不同設定事項不同人群測試時終滿足安全性和有效性高準的工具。在想象一下,提供初始訓練資料在重要方面歧異的不同資料庫時,它繼續滿足甚至超過這準。一步想象一下,只要人工智慧工具超逾性能範圍,其開發就同意外的稽核,可是工具在很一段時間內沒有出現這種情況。遵循工具的建議將比遵循其開發之前的一般醫療保健提供者的建議帶來更好的期健康果。如果將該工具提交 SHAP 值分析,會產關於哪些入有助其建的奇怪故事,那麼作者認為沒有理由認為們應該將上撤下。沙利文(Sullivan2022)之後,人們應該將這果作為進一步科研究的起。表面上奇怪的果可能需要礎經驗資料進行更仔查,並使用其他工具一步稽核。但在這種繼續銷售/使工具作者得很可取,特是考可解釋的人工智慧工具可能現與任何人工智慧相同或更差的性能問題


ii 床遭遇和公共理性

然後,人可能會尋床設定中可解性的重要性。這樣 Maclure 等人助。生必須證明他的措施是合理的,這為可解性要求提供了一些支持(London2019)。公共理性可能是判斷臨策的合宜架構。然而,上述策的制度度也支持自人類合理化侷限性的平行「政治」論點。佐證說明的人類臨策不需要透明,也不需要知悉完美證據吾人希望它符合吾人的最佳安全性和有效性準,並建立制度保障措施,以限制不安全或理的風險,並告知吾等準哪些策有「佐證說明」。目前不清楚什麼吾人須對人工智慧抱有更多期望。

而言之,策已經獲知一系列制度流程,該等流程提供生可以並且確實使用的資訊來佐證說策的合理性,包括安全性和有效性查到專業指南。準由些程序定,並定了合理定必須滿足的證據標準。制被認為提供了一可接受的(儘管尚非完善)架構,用在缺乏對產品工作制的充分理解或其在案例中的準確性的充分了解的情對藥物或非基於軟體醫療器材做出合理策。也是代行政管轄醫療實踐運作方式的基本廓。由上可知,尚不清楚如何由制度角削弱人類合理性的侷限論點

生在知情同意背景環境下具有解法律和道德責任(例如:Froomkin 等人, 2019Kieren 2021)也沒有設定強烈的可解釋性要求。現有規範在各種選項的運作機制下未要求解釋禁止鋰處方(同上)。許多州要求披露建議和替代方案的潛在風險和益處,但不要求披露臨床醫生不知道醫療保健產品如何發揮作用的事實(Cohen 2020Froomkin 等人, 2019)。人工智慧不透明的事實應該合理地予以披露,就像處理不透明的新藥時一樣。稽核過程中發現的任何奇怪結果也須如此,包括任何基於可解釋的人工智慧的結果。但這並不妨礙未能解釋的人工智慧,特別是當許多病患希望從最準確的工具(意即人工智慧或其他工具)中受益時。

那麼,知情同意流程是另一最大限度地少不安全人工智慧使用機會的制度流程,但不支持強烈的可解性要求。任何以病患中心的解性要求不須了解人工智慧如何作等知

最近人工智慧家擔憂Luxton 2022Kühler 2022Diaz Milian Bhattacharyya 2023)提出了管挑,但也不支持強烈的可解性要求。人工智慧家擔憂確定了三重的問題i)人工智慧工具可能會為了自身利益而以令人反感的方式度和蔽地影人,而該種方式不能Kühler 2022),(ii)人工智慧建議事項可能予不適當級供做出決策Luxton 2022Diaz Milian Bhattacharyya 2023),以及(iii)人工智慧策可能法考病患偏好(同上)。擔憂需要人工智慧如何管和融入床遇到狀況的方式做出反,但不支持烈的可解釋的人工智慧要求。

(i) (Kühler 2022) 的健康用通常避免審查(Da Silva 等人,2022)。此項風險管的必要性。但可解釋的人工智慧顯然非必要或尚不足以處理基本問題。反過來,人工智慧-提供者-病患間的互ii)和(iii表明需要一個監管流程,以保人工智慧和提供者向病患提供足的資訊,以便他做出定,且兩者皆尊重病患的選擇。人工智慧引入了外的建議參考點,使知情同意複雜。然而,尊重病患偏好的需求可解問題是互成直角交錯。再次說明,病患做出定所需的資訊水平亦不支持強烈可解性要求。家的指控,強調定是否使用人工智慧或遵循其,需要考個做出決策的生。反對家呼籲不要明確優先考人工智慧建Luxton 2022Diaz Milian Bhattacharyya 2023)並考慮將病患偏好入原始設計Luxton 2022)是有道理的。但是,如果人在缺乏人工智慧操作知識的情法做出自由和知情的選擇事項,家長主義的指控才會支持強烈的可解性要求。其他知情的選擇事項不需要些知,也未能放在此處。

因此,人工智慧使提供醫療保健複雜,包括知情同意流程,並強調注人工智慧使用背景境的重要性。安全性和有效性準以及準宜些複雜作用。有必要仔研究人工智慧如何在現實世界的共同策中發揮作用。但解決這些通盤性問題並不需要管者、生或病患了解所有安全和有效的人工智慧係如何作的。

iii 真正的政治策和公共理性

可能會傾於關注政治回應的公共面。公共理性規範更直接地政府。這種似乎只於關於是否允醫療人工智慧使用或基人工智慧的公共配的公共定。腳註25。儘管如此,此項可以理解的舉動卻顯松動有的定什麼可以被允或再次助的制不需要可解性。近來聲稱公共策必須對其背後原因透明,然後簡單地接受作者們需要存在的類似制(經過修改)。論點還這樣問題訴諸公共理性是否能「回」所未能解釋醫療人工智慧問題。可解者(例如:London 2019 年;Ghassemi 等人 2021 年;Babic 等人 2021 年)聲稱許開發和使用未能解釋的人工智慧醫療是合理的。指出只有達到合理性值的不可解才是須要接受的,以證實觀點

限制給決定的政治回應同存在問題。未能解釋的人工智慧似乎達到合法醫療給決策最常用的準,即丹尼斯和薩賓Daniels and Sabin2002)的當責的任架構。架構要求 (b) 與醫療保健策相(a)公共策,並且期相利益相接受;及 (c) 機會審查和上訴該等決策。它需要 (d) (a)-(c)(a)-(d)關於未能解釋的人工智慧使用是一致的。如果配給醫療保健的架構在很大程度上滿足了這些要求,並允甚至公開資助使用其他已明有效用的不透明醫療產品,那麼很少有人認為這是有問題的。如果有的查未能為決策或上程序提供充分的理由,就會是個問題。但不是未能解釋的人工智慧的問題

如果政治回應只是點出使用醫療人工智慧有正理由的必要性,它並不削弱公共定允助未能解釋的醫療人工智慧使用(或定使用它)的理由。因此,並不能對可解釋的人工智慧烈要求。它支持解以及何使用未能解釋的醫療人工智慧是合理的要求。例如,有架構提供了分析醫療人工智慧案例的方法,些方法在未能解釋物使用方面被泛接受。有流程的問題證明了改革制度的合理性,而不是禁止未能解釋醫療人工智慧。以人工智慧特有的問題為阻止目前最準確的人工智慧是不明智的,特是考到可能出意想不到的後果。並不是「任何能治愈的事情都是正的」的主Herzog 2022)。什麼公共理性不需要禁止多治用品的論點

最後,關於人與機器在一個迴圈內的交互作用必須確認人工智慧策的法(Maclure 2021435)在很大程度上目前的爭論是垂直交錯的。上述研究提供了關於與可解釋的人工智慧交互作用是否可以提高性能的混合多方證據。人與人工智慧的交互是否優於替代方案充其量取決於其他制度設計問題(Parasuraman Wickens 2008)。作者在上文中承認,在評估任何保健產品的允許性時,需要考慮更廣泛的使用背景。但人們無需解決「人在環」的價值問題來解決政治回應或替代方案。關於人工智慧的可解釋性和人機參與的需求的爭論在分析上是截然不同的。當人類存在並且人類可以在缺乏人工智慧可解釋性要求的情下「查」人工智慧,就具有可解性要求的技和哲學問題,例如在物和其他器材設置中。


6 結論

要求可解醫療人工智慧會帶來巨大的成本,看起來此等成本並不值得,因不太可能帶來顯着的相收益。禁止使用經過嚴查的工具是站不住的,基於該等工具療難治性抑郁症或識別需求可以更早、更好、更便宜的早期干的癌症行有效治記錄。要求解其他工具如何工作或生如何做出定並有根。既定的制度架構明了何需要做出哪些定,並大大降低生使用不安全工具或以不安全方式使用工具的可能性。泛接受的系於評鑑未能解釋的醫療決策的使用情,同樣適未能解釋的人工智慧。他可能需要修改以處理人工智慧問題,但支持使用未能解釋的醫療人工智慧的平衡理由。大多數問題都支持法律和政策改革,無論是否允未能解釋的醫療人工智慧的使用,而不是提供明的理由反使用。

呼籲公理性評鑑醫療人工智慧的授證、使用或助是否合理,強調需要佐證說明所有影響個人切身利益的醫療決策的合理性,但不能處理哲和技術問題,並為強烈可解釋的人工智慧要求提供論據聲稱公共理性準要求專門使用可解醫療人工智慧的法面其他論點類似的問題。相反,激發麥盧爾最有力論點的制度考表明,可解醫療人工智慧的政治論點自人侷限性的平行論點,並可能引發來自準確性和意外後果的論點。人可能有理由求提高人工智慧特定目的可解性,例如:培病患的信任。但是,強烈的可解釋的人工智慧要求發問題,而當存在強烈的制度查的情下,公共理性並不需要該等要求。

其他聲稱的強烈可解釋的人工智慧要求的原因並受得住查。例如,要求可以人在定做什麼須滿足的準,可以映射類別可以助吾人規範未能解釋的人工智慧(Yoon 等人,2022)。然而,原上,不透明策的任可以合理分配。這樣很困,需要仔細審查是否可以通過產任法或醫療事故法,以及上述域之關係來最好地分析相關傷害。未能解釋的人工智慧的果對策多些了解可以發揮一些作用。例如,若屬於經確證的群體而使用該工具,提供商便須使用上述工具承擔責任無論是否有人了解工具某些群體而不是其他群體的制。就是吾人評鑑類似傷害任的方式。此外,私領域的法律家正在為醫療人工智慧量身制定準。例如,Price II 等人 (2022) 定提供商有評鑑未能解釋的人工智慧開發品質,並工具行外部確以避免產品任。警告標籤也可以在制定適當標準方面擔任重要角色,如同在其他產品一Da Silva 等人,2022)。腳註26Contra Yoon 等人(2022),有的法律準可以而且確實處法提供完整解的情。此外,由上述原因,要求可解釋的人工智慧會產問題,即使分派可解釋的人工智慧使用的是較為容易。

關於如何將理由轉為編碼並再次返回,或事前識別不透明的人工智慧相關問題,或事後解方案的合理擔憂,並不能完全削弱至少使用低風險的不可解人工智慧的論點。當風險較低時限制使用有值的、未能解釋的人工智慧,而可解釋的工具劇錯誤風險,而且作者其他形式的不透明醫療決策缺乏驅力。人們毋須為對類關懷的赤裸裸的渴望而放棄未能解釋的人工智慧的巨大力。政治正的理由而試圖這樣,人們須切記,人類有很多機會權衡支持和反對在現有行政架構中使用某種工具的理由。腳註27


腳註


沒有留言: