2025年6月15日 星期日

醫療器材導入人工智慧和機器學習的前瞻指引

楔子

運用機器學習(ML, Machine Leraning)在醫療診斷和治療過程時,既提供醫療建議,又收集臨床應用資料,已經變得越來越普遍,考慮到各國法規要求和產品標準的多方交錯複雜性,卻未及時呈現如人工智慧(AI, Artificial Intelligence)的較新技術可能帶有的機會與風險。醫療器材產業急需有關設計和開發使用人工智慧與機器學習時,能夠結合ISO 14971醫療器材風險管理過程等國際標準保持一致性的指引文件。

美國的醫療器材促進協會(AAMI)及時伸出援手,在2023年3月出版技術報告,供醫療器材製造商參考運用,建構整合人工智慧與機器學習的風險管理過程。略感欣慰之事係該指引並不提供新的風險管理過程或擴展ISO 14971:2019已有的要求。
© All Rights reserved. 版權聲明

指引名稱:

  • AAMI TIR 34971:2023 Application of ISO 14971 to machine learning in artificial intelligence ‒ Guide 《ISO 14971 在人工智慧內機器學習中的應用—指引》
  • BS/AAMI 34971:2023 Application of BS EN ISO 14971 to machine learning in artificial intelligence ‒ Guide 《ISO 14971 在人工智慧內機器學習中的應用—指引》
圖1:指引目錄

背景資訊

在產品中使用機器學習模式,必然會帶給最終使用者大量潛在的新風險、不能預見和不熟悉的風險。

場景1:風險分析時,必然從識別和記錄器材及描述預期使用開始。但是,如果係稱器材使用人工智慧與機器學習模組,則風險小組提出關於預期使用和可預見的錯誤使用的情境,顯然不宜侷限在既有之醫療器材的情境和過往經驗得知的問題。

該指引可以提供幫助,指出可能需要提出哪些面向的問題,例如:
  • 是否為提供診斷或治療建議的軟體?
  • 哪些資訊對受到影響的使用者甚為重要?
  • 系統是否告知或主動通知該等資訊給利益相關者?
  • 器材是否具備臨床管理機制?
  • 臨床實務上,系統是否提供相同功能的非機器學習方式的選項?
  • 該器材是否具有自適應功能,如:監督、量測、取樣?
  • 該器材的自主治理能力與程度位於何種範圍?
  • 該器材是否具有與時俱進的學習能力? 操作者是否可以調整其性能及應用特性嗎?
    • 如果可以,是哪些調整?
    • 該類調整是否有限制範圍?
    • 是否受到監督?
  • 如果該系統具有與時俱進的學習能力,是否有可能會影響其預期使用方式?
該指引第5.3節,識別安全有關的特徵,文中提供大量有關使用人工智慧和機器學習時要注意的相關資訊。

圖2:機器學習的應用面向






資料管理 Data Management

資料管理的領域跨越廣闊的範圍,該指引樂於提出需要考慮某些特定問題:資料完整性、一致性和正確性。資料品質和模型複雜度對於效能、風險、適用性和泛化會有何種影響?此處取決於係稱器材的具體情況。有鑒於本諸機器學習的醫療器材在提供給患者使用前,需要對收集來的資料進行「訓練」,因此牽連到資料管理相關的風險有很多項。

儘管可以列出冗長的名單,指引中提供幾種器材的示例,並提示將該等問題納入風險管理活動的一部分。其中一些最關鍵的問題如下(非完整列出):
  • 資料不正確
  • 資料不完整
  • 資料中異常值的處理不正確
  • 不一致的資料,因為來自不同的源頭,例如:
    • 受個人信念或觀點影響的主觀資料
    • 不足以代表器材實際使用中資料品質的典型資料
有缺陷的資料可能會導致 人工智慧與機器學習模型的效能惡化,以及與此等資料品質問題密切相關的各型各類危險,且資料屬性的設定與歸併須納入風險管理過程,包括用於減輕其對績效和安全衝擊的控制措施。指引另外提出「偏差/方差權衡」的問題,此問題是開發 人工智慧與機器學習模型時的一個基本問題,以及需要妥切地考慮管制模型開發複雜性的問題。

偏差 Bias

考慮偏差是醫療和科學研究必不可少事項之一,以及醫療器材產品開發生命週期所需的統計學嚴謹性的基本支柱之一,當涉及採用機器學習的醫療器材的性能時,偏差是潛在風險的主要來源。該指引適當地關照,雖然眾人皆曾感受到偏差可能會對模型表現產生正面和負面的衝擊,儘管並非所有偏差本質上都會產生負面效果,但宜於考慮許多不同的方法以訓練機器學習演算法的資料,指引中詳細討論幾種具體可以衝擊 人工智慧與機器學習模型的偏差類型,如:
  • 隱含偏差
  • 選擇偏差
  • 非正常狀況
  • 代理變量
  • 來自實驗者的偏差
  • 來自分組歸因的偏差
  • 混雜交錯的變量
該指引重點地介紹資料缺失、樣本偏差(當資料並非隨機收集而來時)和覆蓋偏差(當資料與目標群體未能匹配時),將如何導致選擇偏差,從而對產品安全性和有效性可能造成潛在的風險。考慮合宜的緩解措施,該指引建議在資料收集結束階段執行資料集查證,以確保資料集對應預期對象的適宜程度、適切性及適當分佈。此外,器材製造商亦須考慮並評估偏差如何在開發階段之外引入危險和危險情況。例如:宜評估識別風險等級的決策器材的人機使用者介面的設計,以確保模型報告通過計算而來的風險之方法不會引入偏差,或者引起/造成使用者b遭受不當影響。

資料存儲、安全性和隱私性 Data storage/security/privacy

資料儲存、安全性和隱私性已成為所有組織的關切焦點,因為忽視或淡然面對之將會帶來業務和法規風險。 人工智慧與機器學習式的醫療器材有什麼特別之處?在網路安全方面,該指引舉出一個針對醫學影像分類器的對抗性攻擊的衝擊為例,其中細微的影像變化可能導致完全不同的高置信度分類。雖然將家貓誤分類為酪梨醬是個有趣的誤會,但其影響遠大於僅止是將家貓錯誤分類為酪梨醬一事的單純危害,雖然機器學習模組運作的任務,從程式設計上看是相同的步驟,並且承辦人員可以在網際網路上免費獲得分類時會用到的軟體工具。機器學習應用程序的開發、測試和訓練中使用的資料,可能是懷有隱密惡意參與者的誘惑性目標。

正如該指引所指出的示例,儘管由於機器學習模式的不透明性質,即使採取多角度方式確保網路安全的技術將適用於機器學習,但個別情況的差異性及不定期發生的機率,可能很難檢測安全性何時受到損害;亦即意味著任何在其器材中使用機器學習的醫療器材公司都需要維持監督其產品的性能,並採取適當因應措施以確保個人敏感性或隱私資料免除不當的侵犯。

過度信任 Overtrust

過度信任是指使用者對技術產生信心的趨勢,當人們對科技的依賴超出工具現有的能力,即即使某種操作情境顯然提醒使用者應該持懷疑態度,使用者寧願選擇依賴技術並信任該技術,以至於不自覺地將患者置於不確定的風險時,就會出現過度信任的危險。 當使用者:
  • 對應用程序的能力產生超過合理程度的信心。
  • 承擔的風險低於實際面對的風險,並委託給機器學習的模組逕行處理。
  • 當工作量很大時。沒有時間自己做某件事,或未能仔細檢查工作成果時,有很大可能賦予信任機器學習的應用程序。
  • 對自身處理任務的能力略顯信心不足,遂提出申請機器學習的應用模組。
該指引舉出若干情境下可能浮現的不同場景,以及需要進行後繽監督以確定何時可能發生這種情況,以便採取適當的對應措施。該指引提出一個有意義的補強點,建議揭露對 人工智慧與機器學習性能的信心,可以採用之以供過度信任情境的風險控制措施,因為設置的防範措施將擷取和錨定使用者對器材性能的期望。該措施的有效性可以作為開發期間可得性評估的一部分,納入任務執行時的評估和量化指標,並配合監督部署後的運作狀況。

自適應系統 Adaptive systems

與不會隨著時間變更設定事項的傳統軟體系統不同,隨著時間的推移不斷學習的自適應系統能夠在部署後繼續從新的觀察中學習,持續不斷地收集應用期間的資料,因此理所當然地受到了醫療產業、主管機關及利益相關者的特別關注,因為此項功能代表人工智慧與機器學習系統的獨特功能。這對醫療器材的變更控制提出了新的挑戰。雖然並非所有 人工智慧與機器學習系統都能夠做到這一點,但該指引 建議採用自我查證、回溯和上市後查證過程等選擇型項目,對自適應算法進行連續查證的方法,如果性能超出法規、標準或現今科技實務的約束型指標,則可能允許該系統退回到先前通過查證的模型及軟體版本。以防止具備此種功能的自適應系統醫療器材所帶來的風險。

整體剩餘風險

風險管理過程的關鍵部分是評估整體剩餘風險。對於任一種醫療器材來說,此步驟都是一個相對較為困難的過程,而採用人工智慧/機器學習的器材進一步增加了挑戰的難度。該指引為此另提供一些建議,關於如何執行此種評估。為了使用者、稽核員和主管機關在內的所有利害關係人之需,大致說來,宜考慮:
  • 記錄演算法結果;
  • 挑選、決定及預測閾值的影響;
  • 公平性測試和挑選合宜的效能指標;
  • 展示各項控制措施的合理性;
  • 須嘗試量化選擇的管制措施產生的剩餘風險;
  • 模型輸出結果的可解釋性;
  • 在可能的情況下,須適當地記錄有關特徵權重的資訊。
該指引亦包括有關從風險分析中長年累積得到的經驗,有利地應用於風險評鑑、風險控制、剩餘風險評鑑,風險管理審查以及生產和後生產活動的資訊。

再次強調,對於使用機器學習的醫療器材,儘管上述特徵可能是唯有機器學習模組才有的安全相關事項,但並不需要改變ISO 14971中敘述的風險管理過程。

TIR34971附件中包含哪些內容?
該指引附件提供對本文提到的概念和示例,配合相關的說明內容。
  • 附件A 敘述合ISO 14971的風險管理流程,在瀏覽技術報告時值得作為參考。
  • 附件B 提供與機器學習相關的危害情況示例,以及此等危害情況的相互關係、可預見的事件序列、危險情況、危害和風險控制措施。
    • B.1 與機器學習相關的危險示例
    • B.2事件與狀況示例
    • B.3 危險、可預見事件序列、危險狀況、傷害及潛在風險控制措施的相關性示例
  • 附件C 指定使用具有機器學習組件的器材適當執行風險管理過程可能需要的人員資格,以滿足人員適任性要求。
  • 附件D 涵蓋自適應系統的注意事項。係風險管理的重要組成部分,因為系統中的自主層級會影響器材的風險。具有某些特定程度的自適應系統醫療器材,將需要特定的風險控制措施,以確保其安全性和有效性。
    • D.1 IMDRF SaMD分類
    • D.2 採用SaMD分類於自適應系統的可能性

結語

雖然此文僅討論該指引涵蓋的幾個事項,但關於醫療器材帶有人工智慧與機器學習的風險管理過程方面,顯然還有很多需要嘗試、探索、理解、消化及融合的地方。該指引的及時出現提供了揭露人工智慧與機器學習相關風險的視角和緩解工具,採用類似於ISO 14971:2019及 ISO/TR 24971:2020 的章節,可供製造商在風險管理過程中將之文件化。隨著越來越多基於人工智慧與機器學習的醫療器材在全球範圍內放入市場,還有更多的新型或添加機器學習的醫療器材正在開發中,該指引值得醫療器材產業界的重視與採用。

(本篇竟)

沒有留言: