2025年1月9日 星期四

機器學習之冗贅型偏差廿問(六之六)

 (見前篇

© All Rights reserved. 版權聲明

18. 組織的人工智慧系統運作良好,只是背景環境出現新的狀況,已經處理過的冗贅型偏差,應當如何處理?

考慮到外界發生變化的重要性,可能有必要對人工智慧系統針對冗贅型偏差進行全面再評鑑。已實施偏差評估技術須考慮下列事項:

  • 識別出來的相關群體及使用者
  • 地理位置、語言語系、社會經濟或文化性背景環境;
  • 人工智慧系統現今運作狀況。
使用人工智慧系統後,外界的變化可能作用到已經完成評估及部署的人工智慧系統的偏差。外界變化導致須考慮的其它要素,如下列:
  • 考量取用性,包括潛在選項及矯正機制的可獲得性、失能人士的配套措施等;
  • 監督管制減少偏差的效應,採用減少偏差方法可能失敗或惡化偏差風險;
  • 持續的使用者回饋。
  • 組織須監督及文件化外界的變化影響冗贅型偏差風險,以期符合組織風險管理過程。
可能影響做出決定之某些外界的變化,舉例說明如下:
  • 既有的人工智慧系統在不同的環境展開,包括不同的使用者、目標市場或資料來源,將會改變風險,因此要求為冗贅型偏差再評鑑人工智慧系統;
  • 歷經多時,實際世界現象映射到系統的輸入及輸出事項會改變,俗稱「漂移」。例如:使用機器學習模式做出決定的系統表現,當基於原先機器學習模式訓練之相關事項,隨著時空變遷而改變的話,可能出現衰變而較易發生偏差;
  • 當系統使用新的案例可能發展出(無論是有意為之或有機作用)影響關於冗贅型偏差的風險;
  • 社會性規範會與時俱變,如:性別行為規範的態度、理想型身材、吸煙。

凡有外界的相關事項改變,如:量度、風險、利害相關者或要求事項,人工智慧系統的偏差須予以識別、再評估,並加以處理。

 

19. 分散式人工智慧系統生命週期的偏差與管理方式

國際標準ISO/IEC 229898.6.2節記錄若干結合型訓練,涉及雲端或邊際訓練edge training),以及新浮現方法學的應用方式,如:聯邦型學習federated learning)、邊際訓練,無需在單一位置為之,可以在任一網路分佈各地的終端機器進行。

國際標準ISO/IEC 22989的圖3展示人工智慧系統的生命週期,得以運用在部署分散式學習(distributed learning),在分散式網路的每個訓練邊緣端點,可能經由雲服務,從事宛如交響樂團般管理多方登入之整體性訓練。各分散式登入者應非均勻分佈在人工智慧系統的生命週期各個實施細部內容,故應多加考慮。如下所示:

  • 跨及多參與節點的協調式人工智慧開發過程有助於最大限度地減少由於開發過程中的變動性而引入的額外偏差。協調方法包括使用相同的資料擷取、轉換、載入過程和工具,及相互類似的訓練環境,對照出每個節點資料分佈的協同一致的確證策略,按照分散式性質管理保全性和隱私性(例如:使用可信賴的執行環境),包括:識別、評鑑和處理從分散式中出現的新不利風險的風險策略,對應著分散式設置中出現的新不利風險,以及納入負責該項設置的實體在內的整體治理策略。
  • 訓練方法學(如:聯邦式學習)需要一個如交響樂團般的管理實體,通過使用特定的聚積演算法aggregation algorithm)來組合每個分散式訓練節點上的個別訓練。選擇合適的聚積演算法甚為重要,須考慮涵括各訓練節點的資料分佈方式,以確保聚積作業時不會遺漏採樣不足資料(或等級)的節點,或者具有過度採樣資料(或等級)的節點在模型的聚積版本中不會過分突顯。
  • 由於分散式網路中的資料分佈方式各不相同,因此須按照需要調整開發的人工智慧系統之查證和確證任務。在人工智慧系統生命週期的啟動階段,組織宜為資料分佈的適宜系統制定適宜的查證和確證策略指引。宜使用該標準中提供的指引,在每個訓練節點和如交響樂團般的管理實體中處理冗贅型偏差。
  • 管理分散式人工智慧系統的生命週期極具挑戰性。若要緩解此等挑戰,組織須識別適宜的量度,並在分散式訓練網路中收集相同的量度。這些量度提供一種機制,用於偵測從既定實際做法的偏差,並執行任何矯正措施,以確保符合一致的過程和實際做法。整合的機器學習操作實際做法有助於進一步自動化此種管理方式。

 

20. 銷毀與紀錄保存

當移除人工智慧系統或其中某些元件後,組織須確保合宜地保存文件化及資料:

支援資料集或機器學習模組(未來)再次得到運用;

即使移除資料集後,可供調查人工智慧系統(雖然資料遭到移除)的歷史事件或潛在存在過的冗贅型偏差。

對人工智慧系統或機器學習而言,資料是非常重要的。移除過程須擴及遭到移除的資料。資料移除可能引起新的考量事項,涉及保存、保全及私密性。(參見ISO/IEC/IEEE 12207建議事項)。

註:ISO/IEC 5338第6.4.17節定義生命週期最末過程是銷毀。另提供解釋銷毀過程係適宜地結束系統或元件的存在。組織需要考慮合約、政策及環境、法規、安全或保全等各種適用的面向。
註:ISO/TR 8344,第5.9節陳述在結構化資料環境裡移除個別紀錄的關切情況。第5.10節陳述在相關型資料庫既要移除又要參照整體性規則的衝突之關切情況。
註:ISO 15489-1,第8.5節建議組織成立移除權責單位,以掌握移除作業。第9.9節係移除過程建議。

 

21. 延伸閱讀建議

  1. ISO/IEC TS 12791:2024 資訊技術—人工智慧—處理機器學習任務中分類和迴歸的冗贅型偏差
  2. ISO 22458:2022,弱勢的消費者—設計和交付包容性服務的要求和準則
  3. ISO/IEC 5259-1:2024, 人工智慧—資料品質供分析與機器學習—第一部份—整體觀察、專業辭彙、案例
  4. ISO/IEC 23053:2022, 使用機器學習的人工智慧系統架構
  5. ISO/IEC 23894,資訊技術—人工智慧—風險管理指引 (另文介紹
  6. ISO/IEC TR 24027:2021, 資訊技術—人工智慧—在人工智慧系統內及人工智慧輔助做決定帶有的偏差
  7. ISO/IEC 25012:2008, 軟體工程學—系統產品的品質要求事項與評估(SQuaRE)—資料品質模型
  8. ISO/IEC 25059:2023,軟體工程學—系統產品的品質要求事項與評估(SQuaRE)—人工智慧系統的品質模型
  9. ISO/IEC/IEEE 29119-1:2022, 系統與軟體工程學—軟體測試—第一部分:通用概念
  10. ISO/IEC/IEEE 29119-2:2021, 系統與軟體工程學—軟體測試—第二部分:試驗過程
  11. ISO/IEC 42001:2023,資訊技術—人工智慧—管理系統 (另文介紹
  12. ISO/IEC 42005,資訊技術—人工智慧—人工智慧系統衝擊評鑑

(本篇竟)

2025年1月7日 星期二

機器學習之冗贅型偏差廿問(五之六)

(見前篇

© All Rights reserved. 版權聲明

14. 是否有標準或指南可以處理機器學習中的冗贅型偏差?

國際標準組織如ISO, IEC IEEE已經制定相關標準和技術規格,以幫助解決人工智慧系統中冗贅型偏差。例如:

ISO/IEC TS 127912024 提供機器學習的分類和回歸任務中緩解冗贅型偏差的技術。附圖為該標準內容的目錄。


尚有若干參考及引述標準,參見後文第21項的延伸閱讀建議。


15. 組織如何確保其人工智慧系統機器學習模型能祛除偏差?

組織宜按照政策及策略性做法,識別及文件化相關的各個要求事項,旨在減少人工智慧系統內、建議事項、決定或其它由人工智慧系統激盪後產出之冗贅型偏差。涉及偏差來源要求事項宜考慮如下:

  • 各項適用之法規要求;
  • 顧客期待;
  • 內部目標、策略及政策,如:倫理政策;
  • 組織在人工智慧部份的過程及決策;
  • 收集過往已知失敗模式,由既有來源可獲得者,如:組織文件資料中,以前的系統故障或人工智慧事件資料庫;
  • 由個別人士或群體在人工智慧生命週期內做出的各種假設事項、各項過程、各項決定及直接相關活動。

組織宜將前述偏差來源的合宜措施結合風險管理系統,無論是從設計、開發、部署及使用人工智慧系統而來者。組織應評鑑受到前述鑑別出偏差來源可能引起風險影響之利害相關者。

註:冗贅型偏差的風險包括:無作為或認知失措引起的冗贅型偏差風險。

 

宜考慮資料集裡顯示之瀕危群體,資料源自訓練、確證、測試或生產等過程;即使該等群體之個別成員的資料並未在群體內的資料中特別辨識之。此舉有助於披露代理型偏差。

 

為減少偏差,宜與風險管理協同辦理事項,各種廣泛的面向如下示:

  • 變更性管理計劃的文件化;
  • 組織盤點事項納入該項目的文件化;
  • 與資深管理階層溝通相關之偏差風險。

涉及冗贅型偏差的風險,可以從資料的不正確使用或錯誤的標籤、人工智慧系統任務及目標、系統之使用時的前後環節等而致,包括與人類之交互作用、未能充分達到內部與外部的要求事項。此等風險將會實質上影響一或多個利害相關者群體。

組織能通過實施穩固的資料治理實務、定期進行偏差評鑑、培養合乎倫理的人工智慧開發文化、遵循已成文的指引文件及最佳實務,從而確保得以祛除各種模型產出的偏差。持續的監督與改進方能維持平等性並防範偏差出現。

 

16. 如何維持組織的人工智慧系統與機器學習的運作,避開冗贅型偏差的干擾?

組織須文件化及密切配合其採用的方法,以確保風險對治處理識別出的冗贅型偏差,亦對人工智慧系統部署後持續產生的偏差有著預期效應。此種方法須包括必要準則,即必要時所有查證活動須要再做一遍。上述方法須:

  • 提供合宜方法對治冗贅型偏差或模型再訓練;
  • 考慮任何種持續學習或模型再訓練;
  • 考慮周遭資料供應來源及使用者界面的變化。

上述方法之外,尚須考慮加強風險對治手法:

  • 運作時監督冗贅型偏差;
  • 當模型再訓練時監督訓練資料的變化;
  • 當處理時超過既定使用限制事項時,以技術性機制警示操作者;
  • 當生產出資料帶有輸入超過查證活動已經評鑑過的範圍時,以技術性機制識別出來;
  • 供終端使用者識別潛在冗贅型偏差的機制,並知會操作者;
  • 有效作用地由人類從旁查察方式;
  • 不良後果的補救方式。

組織尚須確保總有辦法合宜地登錄進去人工智慧系統,支援和監督前述揀擇出來的冗贅型偏差與對治處理工作。

 

17. 組織的人工智慧系統的管理階層與負責人員,如何決定人工智慧系統與機器學習的運作達到何種階段才能夠接受呢?

組織須決定為了功能型正確度而做出合宜的容許差。在評估人工智慧系統之前做出容許差的閥值和餘裕度。選定的接受準則宜文件化並提供佐證說明。若是功能型正確度因應通常群體和瀕危群體而有所差異,組織須準備該等資訊供相關之利害相關者需要時可以獲得,並說明其間差異。接受準則須配合預期使用及運作狀況的背景環境而文件化。系統的接受準則得以執行測試。當接受準則係特定於相關產出事項,宜以量化方式陳述之。

例如:利害相關者可以要求偽陽性(或偽陰性)比率的最大容許限制,則此限制便成為接受準則的起碼要求。

組織須宣告參與做出決策的諸多人工智慧利害相關者,而後者皆須敘述對該項人工智慧系統運作的滿意程度。

(未完,見續篇

2025年1月5日 星期日

機器學習之冗贅型偏差廿問(四之六)

(見前篇

© All Rights reserved. 版權聲明

11. 如何偵測機器學習模型中的冗贅型偏差?

組織可採取合宜的查證及確證過程,偵測冗贅型偏差。通常係以三種測試方法偵測偏差,(參見ISO/IEC/IEEE 29119-1標準定義的測試事項):

  • 訓練資料的靜態測試,以識別涉及冗贅型偏差的風險;
  • 機器學習模型的動態測試,包括資料前期處理,以評估功能上的正確性;
  • 人工智慧系統的動態測試,為瀕危群體評估功能上的正確性;

組織須執行靜態資料測試和模型及人工智慧系統的動態測試;宜盡可能地在擬真條件下的逼真型使用者執行人工智慧系統測試。一般採用方式:漏洞回報、功能測試、獨立稽核及其它結構化人類回饋實務。

  • 漏洞回報:通過結構化計劃和金錢補償,使用者、研究者和其他參與者受到激勵(如:賞金)發現和報告凡是與偏差相關的問題。漏洞回報賞金對於在現實或對抗性狀況下評鑑系統行為尤為重要。
  • 功能測試:測試人員將人工智慧系統當做整體進行評鑑,旨在其將運用於生產環境。功能測試可以揭示文件化、流程、界面和其他系統元件中可能影響人工智慧系統行為或衝擊人類等問題。
  • 獨立稽核:正式的透明型實際練習,獨立專家記錄遵守授權標準(如:非歧視法律要求,或是特定標準,如:ISO/IEC 12791)的情況。獨立稽核提供從外部、知情觀察地查看人工智慧系統的行為。
  • 結構化人類回饋實務
    • 隨機性管制測試;
    • 以結構化實驗方式評估人類搭配人工智慧的配置方式;
    • 參與式牽涉型練習,如:研判、意見調查、焦點群眾訪問等,涉及潛在地受到影響的個人與社區;
    • 產品管理與使用者交流、使用者經驗研究等活動,以找出優先順序和納入使用者,顧客回饋。

除了上述方式,組織亦可以通過其它方式偵測偏差,例如:分析模型在不同人口統計群體中的預測結果、進行公平性稽核、以及使用偏差偵測工具。採用統計檢驗有助於幫助確定不同群體在處理上的差異。

 

12. 可否概要說明機器學習的資料集靜態與動態測試?

靜態測試(static testing)

組織宜量測資料品質,凡是每個瀕危群體涉及冗贅型偏差皆屬之。靜態測試應挑選及排出優先順序合適的措施。靜態測試須文件化,包括挑選及排出優先順序的佐證說明事項,及獲得的結果。

組織挑選出來的量測措施須足供評鑑下列事項:

  • 資料是否涵蓋不合宜且未平衡過的特色值、標籤內容或其它涉及類型;
  • 資料是否具有代表性,且直接相關於預期產出的資料;
  • 資料是否足夠差異化,無論是群體內部或是各群體之間;
  • 內容缺失或損壞的實際例子的比例是否均勻分佈於每個瀕危群體;
  • 資料格式及納入資料的數量是否在各群體係為一致的。

ISO/IEC 5259-2另提供資料品質措施的資訊及案例。資料品質評估過程依照ISO/IEC 5259-46.3節,,如下示:

活動事項:

  • 採用資料品質措施;
  • 比較資料品質結果對應到既定目標;
  • 評鑑是否達到資料要求。

成果:

  • 將上述資料品質措施與既定目標比較後,紀錄不同之處,並執行衝擊分析;
  • 將資料品質評鑑結果文件化。

註:為每個瀕危群體(已識別出涉及冗贅型偏差者)量測訓練資料品質。


若訓練資料未包括某數值聯結到既有瀕危群體紀錄,但該瀕危群體卻從另外資料識別出來,則從其它既有資料的數值須做為元資料而執行資料品質查核過程,只要係稱群體能從可獲得資料中識別的出來。

例:某個信用型風險排列系統可透過利用資料訓練,特定地排除性別變數及其它潛在相關變數(如:姓名),即使如此,性別資訊仍然可以納入元資料,以利於基於性別測試冗贅型偏差。


實施指引:組織宜識別可獲得之訓練資料的剖繪,加以確證,以了解特定變數的分佈情形是否準確。例子如:識別紀錄中某種年齡層群體是否得到採用供訓練之用,而生產資料卻預期採用另一種年齡層群體

上述活動旨在確證潛在的挑選型偏差與涵蓋型偏差,又不能全方位地做,因為受限於評估者的知識面。

組織可以在準備資料階段識別潛在地導入型偏差,出現示因為「缺少資料」。

例:某個特定資料項目未在各輸入資料集裡一致地獲得之,組織可以轉嫁該資訊到保留紀錄,或者移除該資料項目。

 

動態測試(dynamic testing)

為人工智慧系統執行軟體動態測試時,試驗設計係按照預期行為的規範格式、系統結構、或執行該類活動的人員經驗而做成。

以人工智慧系統為背景環境的動態測試,給定輸入得到預期輸出,量測方法得出系統表現,是否符合統計預期行為。此類測試基於預期輸入資料。

模型測試宜在人工智慧系統構成的模型上執行。元件測試須在自動式前處理階段執行(參見ISO/IEC 23053, 8.3節),此等測試係軟體開發過程之一。

亦須測試整體人工智慧系統及其採用的各模型,從而確定是否呈現出冗贅型偏差。測試人工智慧系統的重要性,在於偏差可能源於人工智慧系統開發階段其他的人類決定,如:資料準備、資料處理步驟、使用者界面、或其它面向,凡是人類與系統交互作用及產出事項。適宜時,建議須採用使用者測試,以決定使用者界面的設計選擇項目是否增強了系統中偏差。此種人類認知偏差結果可能來自下列因素:

  • 使用者或操作者過度依賴人工智慧系統或輸出;
  • 使用者與人工智慧系統之間不恰當的回饋迴路;
  • 使用者或操作者喪失對某種正常或偏移狀況的認知。

人工智慧系統與機器模型測試須足夠完整,須足以代表使用在生產時預期的輸入資料。宜分開使用測試資料及訓練資料。比較式功能矯正輸出事項的正確性,應從各群體間評估,包括瀕危群體;採用適宜量度,以決定人工智慧系統是否達到接受準則。評估時須納入各群體,從而確定輸出品質的差異是否能察覺出來。組織應決定該等差異按照接受準則是否能夠接受。評鑑偏差時的適宜量度參見ISO/IEC TR 24027,第7章。選擇出來的適宜量度應做出解釋及文件化。

各瀕危群體的極端資料輸入亦須經過測試,以識別模型的強固性變動,因為後者可能造成冗贅型偏差。獲得極端資料輸入的過程可以得益於人工智慧參與者及人工智慧使用者在試驗設計、執行試驗、結果評鑑及解釋。

評估冗贅型偏差須在預期使用及預期運作狀況的背景環境下執行。若要展開機器學習模型或人工智慧系統在另一種環境或不同的目標族群,可能改變其程度,從而顯露冗贅型偏差。

通用型人工智慧系統的動態偏差測試時,組織應設置標的,如:品質保證資料集的偏差標的(BBQ, Bias Benchmark for QA dataset)、 維諾性別(Winogender)、真實有毒提示等;在切換人口統計群體資訊時系統地追蹤違反事實提示的結果,及低度內容的提示,如:指揮、壞小子。

 

13. 有哪些技術可以減少機器學習中的冗贅型偏差?

冗贅型偏差能夠從人工智慧系統與機器學習模組的演算式開發、訓練、資料儲存及組織作業過程等技術上加以處理。組織須盡可能挑選配合其產品生命週期特定階段適宜的技術。

註:參見ISO/IEC TR 24027,提供簡短介紹某些技術。


資料技術

資料技術能應用於人工智慧系統生命週期的各個階段。資料收集涉及做出識別資料來源、準備資料集、籌備資料供模型訓練之用。不過,想要按照人工智慧系統設計目標及瞄準使用者基層所定義出,寄望獲得期待的資料分佈型態,是個重大挑戰。

能夠處理資料相關挑戰的技術如下示:

  • 改進過的實驗設計、資料收集與揀選;
  • 依照樣本跨層級分佈類型做上採樣與下採樣;
  • 應用資料增強技術,在重用既有資料集的時候,人為地增加資料集。
  • 擷取額外的資料儲存,以提高相對於目標族群的資料代表性,可能與聯邦式學習等訓練技術相結合。
  • 創建具有已知偏差的另類資料集,以測試人工智慧系統對冗贅型偏差的敏感性。當應用適當的量度時,此方法會提供有關既定人工智慧系統的冗贅型偏差的邊界條件視界;
  • 在訓練資料集裡過濾掉低品質或有毒樣本;
  • 在資料收集過程或模型評估時,儘量避免回饋迴圈或是最小化。

 

若在訓練資料裡發現資料偏差,組織應考慮調整資料以處理冗贅型偏差風險。例:當捨棄某項特色前,組織可以分析該特色供訓練資料關聯到傾向於瀕危群體的冗贅型偏差風險之成員。若是覺得資料偏差係屬冗贅,對策之一是為每一個代表性類別創造一個更平均的分佈式案例子群。

 

演算法及訓練技術

人工智慧系統由一或數個機器學習模組結合而成,各模組係自行或協同使用,若協同使用數個機器學習模組,可能在系統層級強化資料偏差。

修改模組規格或許可以處理冗贅型偏差,如下示:

  • 應用規則化技術能確保預測不會失準或謬誤。重要的是文件化該項技術應用時的細節,尤其是數學上必備的限制。例:為成本功能的損失函數加上規則化條件,則規則化條件得以優先地學習不足分抽樣的資料,以確保即使有主要的資料案例,仍不會忘記其學習的案例。當資料不是獨立與同等地分佈的,上述規則就很重要。
  • 可以採用限制條件以確保模型的客觀功能或行為遵循既知的普通關係,而非學習族群代理者或不正確行為方式,從而引發偏差結果。通常方式包括受限的優化過程、單一性或形狀設限、及交互作用設限。
  • 可以建構雙重目標功能,則模型更新時帶入減少錯誤功能,予以改進擷取偏差的對應措施。例:某個目標的原本構建是跨越多個群體的指數型損失最小化,同時平均衝擊比率最大化。
  • 更改決策閥值可能衝擊某些部份的人工智慧主體接收到正向結果。
  • 擴大或更改離散化輸入變數的區間,可以改變人群細分段與正向結果之間的已學習到之關係。
  • 使用套件式量度配合拆分式量度,可以獲得更全面的圖像並避免成為戲論。
  • 可以應用 top-k 預測(註:係取概率最高的k個量)的採樣或平均值,而不是採用argmax (註:係取函數值最大化時對某個函數域的輸入或參數值)。
  • 應用解耦分類標示技術,根據要求事項為分散式的群體使用不一樣的分類標示,以處理冗贅型偏差。
  • 模型選擇考慮到採用不同超參數或輸入特色規格訓練出來的大族類模型,並在性能和偏差量測之間做出輕重權衡。
  • 模型預測時應用多條規則,截長補短,互相彌補各自的長處與弱項,減輕可預見的不必要偏差或傷害情況。
  • 在開發過程中引入可解釋的人工智慧技術,在特定模型或非特定模型模式下得以執行,有助於事後解釋人工智慧模型輸出的預測事項。此等解釋能引導到偵測和監督冗贅型偏差。合併可解釋的人工智慧與機器學習的運作方式,為組織提供一種方法學,可以自動化監督冗贅型偏差,並觸發矯正步驟以處理偏差。
  • 使用聯邦式學習方法在分散式資料集上進行訓練,可以促進擷取從前未能採用的資料集。擷取更多資料能解決資料分佈型挑戰,即非獨立與同等地分佈型態。此法能提高人工智慧系統的準確性並減少冗贅型偏差。聯邦式學習有效率的良好案例是在醫療保健領域的疾病偵測。分散式訓練的其他各種選項,例如:增量式學習、循環式學習、或上述各方法的組合方式,亦可加以調適而減少冗贅型偏差。
  • 對抗性機器學習方法可應用到處於劣勢之預測無需解碼的人口統計式資訊估計器。部署主要估計器持續進行訓練,從訓練資料中學習,並從對抗性模型接收回饋,直到對抗者未能再使用主要估計器的預測事項以預測群體成員的身份。


預訓練模型

訓練技術能應用在客製化預訓練機器學習模型,以調適人工智慧系統於特定部署條件產出結果。即使強調創建的人工智慧系統具有最小化的冗贅型偏差,仍然不可能認為實際世界發生的所有各式各樣情境都可以部署。為因應此等情境,組織能使用下列各種技術:

  • 改變設定熱度(或類似項)所控制的系統輸出事項之隨機性;
  • 採用較為簡單的人工智慧系統或運作規則做內容評議,以識別出有問題的產出,從而限制其送到使用者處;
  • 細緻調適、再訓練、或採用按照真實物件訓練資料做轉換訓練、或以組織內部資料做轉換訓練;
  • 提供預先核准之回覆事項供通用或常見的輸入問題;
  • 強勢元提示詞適應多樣性使用者族群,及指示類模型可避開一成不變型、蔑視性、或其它有毒式主題。
  • 納入使用者回饋和補救機制。
  • 各種技術,包括持續學習及轉換學習,提供必須要的容納量,客製化人工智慧系統及因素,因應部署期間的冗贅型偏差。

(未完,見續篇






2025年1月2日 星期四

機器學習之冗贅型偏差廿問(三之六)

(見前篇

© All Rights reserved. 版權聲明

7. 如何避免資料來源的問題,影響到機器學習模型出現冗贅型偏差?

組織宜建立、實施及維護資料品質管理系統,以確保資料(包括:資料集、資料庫、訓練資料)的規劃、設計開發、查證與確證、展開、實施與維護、直到退役之每個階段,符合組織的資料品質政策與目標,且上述各項作業皆文件化,並保留紀錄。

首先須考慮元資料的內容,元資料的代表性與詳細程度須足以鑑別冗贅型偏差的潛在來源。元資料或資料集的文件化須足以使資料能受到冗贅型偏差的評估。

附圖為資料生命週期與資料品質管理的概略關係圖(參見ISO/IEC 5259-4,圖2)。



組織須為每個資料來源做成評估及文件化,如下示:

  • 創建該資料集的預期使用及目的,包括特定任務;
  • 識別資料集的創建者們,及贊助金的各種來源;
  • 資料集的組成成分,包括:性質、尺度、標籤、相關度、錯誤性、贅餘度、噪音及資料集案例文稿中遺漏的資訊;
  • 資料集內容物的完整性,如:保密型資訊、敏感型資料可能呈現個人專屬的識別標記、子群體及群體、各個利害相關者群體所缺少的特色等資訊;
  • 資料集的使用規定與許可證;
  • 資料集的準確度,包括:資料集帶有不準確資料的數量,及各個利害相關者群體的不準確性;
  • 收集資料的時間段(所謂的「近時性」),包括為了準確度而收集之時間段的潛在效應;
  • 資料集帶有的毒性資料、或針對性資料之適宜程度;
  • 一致性,包括標籤,如:從註釋者間協議所量測到的一致程度;
  • 跨越不同子群體間的資料集涵蓋程度,係與展開人工智慧系統時的背景環境直接相關;
  • 慮及如何為未能觀察到的建構事項賦予近似型標籤,而引致非預期的衝擊;
  • 資料收集與轉換成模型化之間的回饋往復作用與擴散效應的風險;
  • 資料集的維護,包括:各利害相關者負責的支援、代管理者、按時更新、版本更動、保存做法、逾期資料集的安排、改進資料集的參與貢獻方式等;
  • 追溯性,包括:涉及彙集或處理各自資料來源中的資料之其它系統;
  • 可理解性,包括:各種符號標示、計量單位及語言種類;
  • 可接受稽核程度,包括:已接受過的稽核、規劃中的稽核、潛在預期來臨的稽核;
  • 個人可識別資訊的辨識性與保護程度;
  • 某項給定個案之各種資料來源間的相關性;
  • 面對目標群體的代表性;

8. 如果機器學習模型或資料集是向供應者(如:資料提供者)採購來的,需要注意哪些事項?

機器學習工具可能是採購而來、自行開發、或兩者兼而有之。在演算法則、機器學習演算法或開發機器學習模型階段使用何種技術,係有助於有效處理冗贅型偏差。

關於資料集的準備及提供,宜考慮人工智慧生產者與人工智慧夥伴具備保密協議,確切的範疇;如果法規要求事項對資料集予以公開的行為有所影響,應明示並做出佐證說明。

影響冗贅型偏差的人工智慧系統面向如下示:

  • 演算法(algorithm)揀擇
  • 超參數(hyperparameter)調整
  • 模型偏差(model bias)
  • 資料來源內含偏差

組織與第三者協議內容具備合宜措施,處理冗贅型偏差風險,包括ISO/IEC TS 12791內容及其衍伸事項。

  • 在採購過程中,資料提供者按照法規要求,須備妥下列資料(需要時可獲得之):
  • 資料起源,包括:訓練採用、確效及測試資料
  • 資料品質管理政策及資料品質查核評鑑結果,包括:內部註釋者協議措施;
  • 資料品質模型處理面向,如:採用的附加標籤過程、採用的機器學習模型類別或採用的演算法;

註:此等資訊可用於發現只有資料供應者才能看得到的機制相關的偏差,因為該等事項是其內部過程的一部分。


因採購行為而須由資料提供者備妥資訊,如下示:
  • 資料收集方法
  • 資料標籤工作者工作狀況時的資訊,因其會影響該人員的人類認知偏差,從而引發成果資料集的潛在冗贅型偏差;
  • 進行資料標籤時的地理位置;
  • 資料標籤工作者群的顯著地匯總型人口統計資料。
  • 供冗贅型偏差風險管理之用的資料字典及直接相關的元資料集。
  • 資料供應者宜確保工作者群內個別人士及群體的私密性得以維持。

 因採購行為而須由人工智慧技術提供者備妥的資訊,如下示:

  • 預期之使用時背景環境及相關假設條件;
  • 已知的系統侷限事項;
  • 人類與人工智慧系統使用過程交互作用之建議做法;
  • 可能影響冗贅型偏差之妥協事項,涉及演算法、機器學習演算法則及機器學習模型開發;
  • 資料收集、修改與庋藏過程等可能涉及偏差者,如:插補或參數設置;
  • 在人工智慧系統設計與開發階段為查證和確證所擬訂的測試攻略,包括:接收準則及機器學習模型化時使用近似因子等。

 

9. 自製或外購的資料集是否適用於組織的人工智慧系統目的,或與機器學習的預期使用,因應對策為何?

組織可利用制定的資料集評估準則,資料集的歷史資料、資料集的已知冗贅型偏差、供應商提供資料集的特色與建議應用方式、類似資料集的冗贅型偏差處理經驗,彙編為組織人工智慧系統機器學習的訓練階段運作對策指引,收集正向與負向現象或趨勢,重點關切事項為訓練階段可見的與潛在的冗贅型偏差,配合發現時的背景環境與相關運作事項文件化,採取對應措施,評估與管制風險,減少或盡力排除冗贅型偏差。


組織須實施及文件化機制以處理從發生情況識別出來的冗贅型偏差風險。參見ISO/IEC TR 240278.3.3.2節舉例說明緩和偏差的方法,可稱之為公平型演算法,如下示:

  • 更進一步基於資料型態的方法,如為低代表性群體向上取樣,或是採用合成資料;
  • 基於模型的方法,如添加規則化項目或約束項目、在優化期間強制企及某項目標、或呈現學習隱藏或減少特定變數的效應;
  • 基於事後的方法,如根據預測結果識別出來某種特定於群組的決策閾值,以達到等效化的偽陽性率、或其他相關量度。

從相關於冗贅型偏差識別出來的風險,組織應考慮下列事項:

  • 因為資料註釋事項(與真實世界分佈情況)不成比例之可獲得性而造成的偏差;
  • 人類認知偏差類型,包括相關的資料註釋事項;
  • 在生命週期內的過程類型及所做的決定,且可能會受到人類認知偏差的衝擊;包括資料註釋事項;

組織須實施文件化機制,以確保註釋活動不會創造冗贅型偏差,包括如下:

  • 基於已知基礎事實創造輸入提供品質的量度;
  • 進行案例查核;
  • 提供明確說明或訓練予人類;
  • 為人類訂定機制以回饋給資料註釋任務;
  • 做出評估由自動地生成的標籤或註釋時的統計型偏差,
  • 經由計算註釋者間協議,比較由數個人類為相同資料所生成的標籤;
  • 由人類生成的標籤之間的差異之解譯方法。

由於人類認知偏差及人類失誤,不宜假設人工註釋就代表高品質。

 

10. 冗贅型偏差在機器學習模型中的類型與來源有哪些?

由於使用人工智慧系統,即使是平常預期使用的目標群體,由於系統產生偏差,可能會浮現未能預見的瀕危群體,資料集出現的冗贅型偏差可能導致對個人或群體的不公平對待,使刻板印象經久不退,並引發法律和倫理問題,潛在地可能導致傷害;使用此種模型的組織,可能會因此損害機器學習系統的可信度和可靠性,並面臨倫理或法律層面的後續效應。

註:瀕危群體(at-risk group)係指可能受到各冗贅偏差不利影響的各種利害相關者群體之中的子集合。

ISO/IEC 24027提供三種常見的偏差類型,如下示:

  • 人類認知偏差類型:人類可能因為有意或無意之下做出某種行為、個人經驗促成某種行為、或是受到資訊及/或資料的誤導而出現某種行為;大致可以分為自動化型偏差、群體特性偏差、暗示性偏差、確認型偏差、內群體型偏差、外群體同質性型偏差、社會型偏差、基於規則的系統設計型偏差、要求型偏差;
  • 資料帶有的偏差類型:統計型偏差、抽樣偏差、涵蓋型偏差、無回覆型偏差、非常態型偏差、缺乏代表性的抽樣偏差、缺乏代表性的標籤化過程、缺乏特色及標籤、資料處理過程偏差、辛普森悖論、資料積聚型偏差、分散式訓練過程等;
  • 工程技術引致的偏差類型:特色工程化偏差、挑選演算法偏差、超參數調整型偏差、帶有資訊量多寡型偏差、模式型偏差、模型交互作用型偏差、模型表現型偏差。
附圖舉例說明資料特徵偏差經過人工智慧系統一番運作引致的冗贅型偏差。



註:辛普森悖論Simpson's paradox),是或然率和統計學的一種現象,即在幾組資料各自出現某種趨勢時,可是將該幾組資料合併之後,反而喪失原先趨勢甚至會扭轉原先趨勢。此種現象常見於社會科學研究及醫學類的統計資料,當此等資料受到不恰當地演繹出因果關係時,可能得到與原先資料相反或扭曲的結論。


可採用如ISO/IEC 23894風險管理系統介紹,搭配相關標準:

  • ISO/IEC 25059 識別出各種瀕危群體可能變動的品質量度;附圖為品質模式類別示例。

  • ISO/IEC 5259-2 識別出各種瀕危群體可能變動的資料品質量度;

(未完,見續篇

2024年12月31日 星期二

機器學習之冗贅型偏差廿問(二之六)

(見前篇

4. 如何管理人工智慧系統與機器學習,並考慮涉及的利害相關者?

考慮到人工智慧系統機器學習模型的利害相關者,任何個人、群體或組織,凡是可預見會正向或負向受到人工智慧系統非預期之冗贅型偏差的影響者,如下示:

  • 人工智慧系統操作者或中介者,
  • 組織內做出決策者,
  • 人工智慧夥伴(亦包括人工智慧稽核員),
  • 法規監管機構。

1:第三者機構執行部署人工智慧系統組織的稽核時,稽核團隊須考慮受稽核組織、受稽核組織的目標眾、顧客及其他各利害相關者等之多樣化,以防範冗贅型偏差影響稽核進行及稽核結果。

2:法規監管機構成員須考慮第三者機構的稽核員、受稽核組織及受稽核組織的目標群眾、顧客及其他各利害相關者等之多樣化,以防範冗贅型偏差影響審查過程及結果。

 

負責展開或運作人工智慧系統的組織,須考慮的利害相關者,如下示:

  • 誰是被自動化決策做出決定的人工智慧主體,或誰在共享人工智慧系統的運作環境;
  • 人工智慧系統提供的資訊接收者,尚非直接使用者,如:基於人工智慧導出資訊,由行政機構人員整理後由公眾事務機關做出決定。
  • 資料主體並非直接與人工智慧系統交互作用,但其資料卻供該系統訓練之用。

3:某個給出建議型式的人工智慧系統收到使用者某一項輸入,則人工智慧系統應用須具備彈性,得以從母語人士或非母語人士接收該項輸入。

4:分析資料型的人工智慧系統,從各方向收集來的資料集產出資訊,目標是對社會經濟資料集進行分析,將分析結果通知政策開發單位,若從歷史資料檢索引述而非由目前狀況導出,將可能擴散冗贅型偏差。

© All Rights reserved. 版權聲明


5. 組織規劃機器學習用的資料集須考慮哪些特色(feature)呢?

組織須文件化佐證說明為機器學習採用之特色所擇定的設計事項。若因冗贅型偏差而識別出來的風險risk),組織須採取措施,如下示:

  • 資料偏差(資料屬性之一,若資料未經處理,將導致人工智慧系統對不同主體、人員或群組表現較好或較差。)類型,係與將會呈現出來者、且與擇定之特色有關者;
  • 人類認知偏差(係指人類處理和理解資訊所發生的偏差)類型,係與將會因參與之個別人士所選擇的特色而呈現出來;
  • 遺漏或非預期特色價值、及不必要的失衡情況;
  • 在生命週期內的過程類型及所做的決定,且可能會受到人類認知偏差的衝擊;
  • 系統元件間的相互作用;
  • 因為資料集或特色事項(與真實世界分佈情況)不成比例之可獲得性而造成的偏差;
  • 涉及挑選特色事項的過程內含的偏差;
  • 群體分佈之類型所呈現之各種代理事項;
  • 在訓練、確證時的群體中各成員的分佈、或是系統預期的人類群聚之測試資料及其代表性事項等;
  • 在全部人類群體中正向或負向產出事項的分佈;
  • 其它可能相關的屬於統計型或計算型偏差。

註:代表性representativeness),係指定式評鑑下列兩者的程度:給定資料集之屬性趨近於繫連目標群體之統計屬性。代表性可經由使用資料的一個或多個量度予以量化,如:大小、分佈或組成。代表性試驗資料係供查證人工智慧系統是否達到目標群體功能正確性的可接受水準。

 

6. 在機器學習的分類和回歸任務中,冗贅型偏差是如何發生的?

人工智慧系統的表現,評估事項之一是性能評鑑。執行性能評鑑時採用的測試資料具有某種程度的代表性。為訓練機器學習的演算法而使用的訓練資料亦有其代表性,不宜特意經過設計而槓桿撬動後產生非代表性資料供訓練使用。

所謂資料集的資料代表性事項,可以是不同事項構成的函數:資料尺度、類型、幅員遼闊度及複雜度。資料集的歸屬度、排除事項,以及標示程度,亦將影響代表性事項。機器學習模型未能完成訓練,泰半皆可歸因於採用的訓練資料缺乏代表值、歸屬度分佈狀況、排除事項及標示程度

冗贅型偏差可能是由於資料集不平衡、訓練資料本身存在偏差、或演算法有缺陷而發生。它可能表現為某些群體在模型中的代表性不準確、偏低、偏高或不足,從而導致預測結果出現偏差。

(未完,見續篇

2024年12月29日 星期日

機器學習之冗贅型偏差廿問(一之六)

楔子

從一般人申請貸款時隱約感受到的種族歧視,又如在醫療診斷中的錯誤看法或治療方向,人工智慧(AI)系統中「冗贅型偏差」(unwanted bias,亦稱為「不必要的偏差」)可能會引出嚴重的後果。另一方面,特意強調的偏差可能在某種應用面相當有效,例如:在篩選貸款申請中的隱藏型風險狀況,或者引入對性別或種族的偏差從而彌補既成的社會偏見(例如:在代表性不足的產業可以配合需求項目增加聘用某類人員)。

人工智慧(AI)從資料中學習,因此由某些資料集訓練出來的人工智慧系統可能反映社會中已經存在的偏見,或由於系統設計時不充分,或資料缺乏代表性,而發生伴隨資料而來的偏差。

人工智慧(AI)系統學習資料集獲得的偏見可能會放大或加劇既有的問題,可能會偏向或忽略某些群體、事物、概念或結果。更甚而有之的是嘗試消除一種偏差,可能會在另一個未能察覺到的面向產生其他偏差。所有這些負面印象都可能導致惡劣後果。由於人工智慧系統經常被用來幫助企業或個人做出決策,因此冗贅型偏差是有可能引發大問題的。

由於不必要的偏差而導致的錯誤顯然會削弱眾人對人工智慧系統的信任感,從而降低接納此項新技術,更不用說人工智慧可以帶來的潛在益處。此篇短文係介紹如何處理人工智慧(AI)系統使用機器學習出現的冗贅型偏差。嘗試運用人工智慧系統生命週期適宜應用的緩解因應技術,處理冗贅型偏差。

© All Rights reserved. 版權聲明

 

1. 什麼是機器學習中的冗贅型偏差unwanted bias)?

冗贅型偏差指的是機器學習模型中出現的系統性錯誤,此等錯誤會導致不公平或歧視性的結果,通常反映出人工智慧系統訓練資料中存在的偏差。導致結果偏斜,不能準確代表資料的真實分佈。

常見的偏差類型如下示:

  • 資料偏差(data bias):係資料屬性,若未經處理,將導致人工智慧系統對不同主體、人員或群組表現較好或較差。
  • 人類認知型偏差(human cognitive bias):人類處理和理解資訊所發生的偏差,此型偏差可能影響人類判斷和做出決策。
  • 模型偏差(model bias):指模型中存在的系統誤差,此型誤差可能導致模型始終做出錯誤的預測。這些錯誤可能由許多來源引起,包括訓練數據的選擇、用於構建模型的特徵的選擇或用於訓練模型的演算法。。
  • 選擇型偏差(selection bias):當資料集的各類樣本未以代表其現實世界分佈方式收集時可能發生的資料偏差類型;
  • 統計型偏差(statistical bias):考慮到資料中往往帶有估計量,而偏移量是大多數估計量的固有性質,此型偏差係指估計量中相對於真實基礎值的一致地數值偏移類型;
  • 計算型偏差(computational bias):通過查找估計值與實際值之間的差值來計算偏差。若要找出某種方法的偏差,須執行甚多次估計,並將每次估計得到的誤差與實際值比較。加總每次的誤差值除以估計值的執行次數,可以得出係稱方法的偏差。

2. 部署人工智慧系統後,哪些人員會受到冗贅型偏差的影響

工作人員的需求

現代經濟運作的市場競爭需求,促使產業界與服務業界的資方愈來愈多地投資到基於人工智慧的數位監督、分析和協助做出決策的解決方案,以諮詢、建議、補充管理手法之需,且在某些情況下部份或完全地取代某些職務的員工做出決策。人工智慧在工作場所的使用案例包括下示:

  • 召募演算法,用於設計招聘廣告、篩選求職申請、測試求職者的能力、檢查他們的記錄、以及進行或評鑑各項面試作業;
  • 工作場所決策演算法,用於組織輪班工作、為工人分配日常任務、將工人分配到不同的團隊或專案,或提供通常的自助式人力資源活動(工資和福利、年假、病假、工作費用報銷);
  • 績效管理演算法,可以追蹤實體或數位式員工活動、檢查員工的電子郵件和其他消息、尋找關鍵字或進行觀點分析,根據產出或目標評估員工,使用客戶評分來衡量員工績效,最後將上述所有內容轉化為有關晉陞、獎勵獎金或解僱哪些員工的建議。

組織管理機構、員工及其代表之間的社會對話有助於識別和矯正冗贅型偏差。通過處理冗贅型偏差,同時展現人工智慧系統如何減少冗贅型偏差,組織可以改進員工對人工智慧系統的接受度。


弱勢的消費者

ISO 22458 能用在設計與交付包容式服務inclusive services),旨在為弱勢的消費者促進利益,同時最小化傷害風險。

消費者的弱勢,意指任何時刻可能會永久地或暫時地影響任何人的某種事項。相對於非弱勢消費者,弱勢消費者在與人工智慧系統交互作用,或者接受人工智慧系統做出的決策影響時,可能會出現負面結果的風險增加。

ISO 22458指出,適用於人工智慧系統如下示:

  • 採用包容式設計防範冗贅型偏差;
  • 定期評鑑人工智慧系統,關注冗贅型偏差作用在消費者的效應,尤其是後者處理弱勢的情況;
  • 凡是系統因某種方式出現冗贅型的偏差;
  • 凡是系統創造冗贅型的歧視效應;
  • 凡是系統引致傷害。

人工智慧衝擊評鑑的指引見ISO/IEC 42005

 

3. 哪些利害相關者涉及人工智慧系統的冗贅型偏差?

人工智慧系統的開發、訓練、準備、運作、部署及維護各階段,涉及各種類型的利害相關者,包括:

  • 資料集相關者:資料集來源群體、供應者、資料分析者、資料科學家;
  • 法規相關者:人工智慧倫理學家、政策制定者、法規監督機構;
  • 技術相關者:資料技術專家、人工智慧技術專家;
  • 營運相關者:使用者、操作者、人工智慧系統目標群體(target population)、尤須關注瀕危群體、系統部署的環境及運作者等;
  • 品質、風險、稽核相關者:品質管理者、風險管理者、第三者稽核與驗證機構。

各方利害相關者運用本職技能,得以促成人工智慧系統日常營運、異常管理、識別、處理和減少冗贅型偏差方面發揮出至關重要的作用。協同合作與透明化是確保人工智慧系統的公平及合乎倫理營運的關鍵要素。另外,利害相關者亦能協助創建指引文件、執行偏差稽核、倡導負責任的人工智慧實務。

(未完,見續篇

2024年12月19日 星期四

運用FMEA做醫療器材風險管理,對嗎?

楔子

如果醫療器材製造商至今還在使用失效模式與效應分析(FMEA),及 FMECA(即FMEA加上關鍵性分析)當做醫療器材的風險分析(risk analysis)通用技術,坦白地說,這種風險管理(risk management)的做法已經不再適合現今醫療器材實務應用的需求。

可能有人要問一個問題:
為什麼不使用失效模式、效應和關鍵性分析(FMEA及FMECA)的技術?
畢竟這項技術行之有年,是產品與服務業實際最常採用的風險管理應用工具。

此文將個人搜集到的資料依序呈現,希望對醫療器材從業人員澄清現今做法有點幫助。

風險管理名詞

先將幾個討論風險管理時用得到的名詞及意義整理如下:
  • 風險(risk):對目標之不確定性的效應。
  • 風險管理(Risk management):將管理政策、程序及實務上系統性地應用於分析、評估、管制及監督風險的活動。
  • FMEA失效模式與效應分析:此種工具是依循既定程序,對於系統範圍 (如:某個設計方案、生產/組裝過程、產品或服務)的每個步驟(或是零件、過程項目)的潛在失效模式進行分析。
  • 傷害(harm):對人體健康的損傷或損害,或對財產或環境的損害。
  • 危險(hazard):可能導致傷害的潛在來源。
  • 危險狀況(hazardous situation):人員、財產或環境曝露在一種或多種的危險中的情形。
  • 安全(safety):免除不可接受的風險之狀態。
註1:參見ISO 31000 風險管理指引,及 另文介紹相關辭彙定義。
註2:參見ISO/IEC Guide 63,醫療器材國際標準開發時須考慮安全面向。
註3:參見 ISO 14971,醫療器材風險管理。
註4:參見ISO/TR 24971 醫療器材風險管理ISO 14971應用指引,(另文介紹該項風險管理過程指引),其附錄(附錄E.3 b)) 說明IEC 62366-1可用性與風險管理過程的相關內容。)
註5:參見 ISO 31073 風險管理辭彙,(另文介紹各辭彙內容)。
註6:參見EN IEC 60812:2018 失效模式、效應和關鍵性分析。參見ISO/TR 24971, 附錄B.5 FMEA的說明內容。
© All Rights reserved. 版權聲明

醫療器材風險管理過程

通常的醫療器材風險管理過程(見圖1),在分析、評估和評鑑階段,必然包括下述步驟:
  • 鑑別醫療器材在正常使用情況時出現的「危險」及「危險狀況」開始。
  • 假如發生不正確的使用,可能危及病患,或者使用者,甚至可能是周遭的人類或環境。
  • 估算該等危險導致傷害的「嚴重性」。
  • 估算出現該等傷害的「可能性(亦稱:或然率、概率)」。
  • 結合上述估算的傷害嚴重性和可能性,就得到每個危險或是危險狀況的「風險」。

圖1:ISO 14971 風險管理過程概要圖

醫療器材風險管理過程須要系統地考慮醫療器材的正確預期使用(intended use),及可能的不正確使用(incorrect use),但卻是可以合理預見的預期使用(foreseeable intended use)方式。此處考慮醫療器材的預期使用對象是人類,通常包括病患及操作醫療器材的人。

處理過正常使用情況的風險管理過程後,尚須處理醫療器材不正確的使用情況,但卻是合理可以預見的錯誤使用(reasonably foreseeable misuse)方式,即常理容易判斷預測平凡人類如你和我的有意識(或是無意之中、或潛意識)的行為,從而引起雖未按照製造商預期方式,但在上述的背景環境下仍然發生某種使用醫療器材或醫療器材系統的方式。此項做法是醫療器材法規中明確敘述的要求之一(參見註7),但是在風險管理標準ISO14971中,並未解釋如何找出可能的「合理可以預見的錯誤使用」,而須借助可用性工程,逐步尋找和決定各種使用情形:正常使用、誤用、不正確使用、合理可以預見的錯誤使用。有興趣的讀者,可以參考相關標準,見註3、註4、註8、註9。
註7:參見(EU) 2017/745 MDR 第10(9e)條,連結至附錄I第I章(3)內容。
註8:參見IEC 62366-1,醫療器材應用可使用性工程。
註9:參見EN/IEC60601-1-6醫療電氣設備—第六部份—基本安全與基本性能通用要求:可用性。
註10:參見ISO/TR 24971, 附錄E.3 b) 說明IEC 62366-1可用性與風險管理過程的相關內容。


FMEA/FMECA風險管理過程

失效模式與效應分析(FMEA)和失效模式、效應和關鍵性分析(FMECA)則是不同的應用範圍及對象,它是一種系統地鑑別和評估單一故障(failure,亦可稱失效)」模式後果的技術。以提問方式「如果如此做,則會發生什麼後果?」進行歸納的技術。每次僅分析一個零部件,因此通常查看單一故障情況。該技術以俗稱為「自下而上」模式進行,即按照程序進展到更高一階的功能系統層次。各位沒看錯,FMEA是處理產品或服務「失效/故障」的工具。

失效的處理方式須要考慮每個失效情況或事件的風險優先級數(簡稱RPN),亦即經由三個參數(S, P, D)估算風險優先級數:
  • 失效後果的嚴重性(Severity, S);
  • 出現失效的或然率(Probability, P);
  • 實務上發現失效的困難程度(Detection, D)。
由此處三個參數值位於各該軸的位置,按其位置賦予係數(如:三個參數各成一軸,每個軸由1到10表示從小到大的位置,可以看成10X10X10的三次元矩陣。)三個係數相乘得到RPN,稱為風險優先係數或風險順序數,故按照RPN排出各危險事項的順序,往往被視為產品風險的順序。
註11:參見IEC 60812:2006的日本工業規格(JIS)C 5750-4-3:2011 FMEA翻譯的網頁版。

從產品或服務設計工程師的立場來看,使用FMEA或FMECA分析醫療器材本身或是過程中涉及或使用到的材料、零部件、半成品、作業材料或添加物,估算每個零部件潛在失效引起系統效應情形,運用綜合風險優先級數排序,決定因應對策,仍不失為好用的工具。

只不過,FMEA或FMECA本質是探討產品或服務可靠度(reliability,亦稱:可靠性)的過程工具,畢竟和醫療器材的風險管理過程有段差距。

醫療器材的風險
醫療器材法規所談的風險,可不僅僅是產品或服務的功能失效/故障而已,尚須考慮醫療器材的基本安全(basic safety)與基本性能(essential performance)。此處一個值得記住的基本概念,就是即使醫療器材並未失效/故障,但是基本安全不足,或是基本性能降低,未能充分達到醫療器材的預期功能,通常理解為不可低於原有正常運作階段預期功能的95%為信賴區間,否則醫療器材仍然可能帶有風險,嚴重時候可能視為不可接受。

為了達到醫療器材的基本安全與基本性能符合法規及產品標準要求事項,製造商的設計與開發部門,及相關各部門指派的專業人員,包括業務、工程、採購、倉儲、生產、包裝、運輸、隨附文件及標籤等功能,組成風險管理團隊,合作協力安排、制定及實施風險管制措施,有效減少或消除識別出來的風險,從而確保製造商出廠時宣稱的基本安全與基本性能在生命週期內做到預期使用的性能及效果。

FMEA的風險

失效模式與效應分析FMEA和FMECA 及風險管理的概念差別在國際標準IEC 60812 失效模式與效應分析(FMEA及FMECA)中,使用到的名詞包括:失效模式、失效效應、嚴重度、失效原因、發生度、過程管制、偵測度、風險順序數及推薦措施。
在國際標準ISO 14971醫療器材風險管理過程中,使用到的名詞包括:風險、危險、危險狀況、傷害、嚴重度、(事件)發生的或然率、風險接受度及風險管制措施。(見圖2)


圖2:ISO 14971 對照IEC 60812 示意圖

比較兩個標準使用的幾個名詞,從字面上看起來,真的是很像;也難怪會引起多數人的困惑;
  • 危險危險狀況好像是失效模式;
  • 傷害好像是失效效應;
  • 病患醫學症狀好像是發現失效的困難度;
  • 風險好像可以風險優先級數(RPN)代替。
而且從事產品或服務設計的工程師,習慣使用失效模式與效應分析(FMEA及FMECA)當做設計過程工具,所以感覺上運用在設計醫療器材階段的風險管理過程時,工程人員不會意識到任何欠妥當的情形。
況且工程業界從航太產業擴散到汽車產業,日漸廣泛地使用FMEA的時候,遠早於ISO 14971成為醫療器材共通標準的時候。這種情況下,身為醫療器材的從業人員,尤其是法務人員(參見歐盟醫療器材條例第15條)免不了要被公司主管問一個問題:兩者究竟有什麼差別嗎?

區分事項

在醫療器材領域,包括醫學臨床實務情況,僅僅採用失效模式與效應分析(FMEA)的技術,基於零部件失效及效應解析醫療器材風險,這種作業過程偏重在器材個別零部件的失效效應,配合產品壽命計算(MTBF),可能忽略醫學臨床上實際使用狀況及使用效果,恐怕尚未達到醫療器材風險管理的要求程度。

在國際間,歐洲、美洲及亞洲各國的醫療器材主管機關普遍採用ISO 14971為法規採認標準,包括美國食品及藥物管理署FDA,加拿大健康部Health Canada,歐盟的公眾健康署DG SANCO與歐盟各成員國的健康部/衛生部,日本的厚生省,英國的MHRA,中華民國的衛生福利部等。

醫療器材製造商正確地運用ISO 14971標準的風險管理過程,建立及維護醫療器材的風險管理文件檔案,才是取得各國主管機關核准與認可風險管理措施符合法規要求的關鍵點。

ISO 14971的風險管理過程涵蓋醫療器材的整個生命週期,意即設計開發、產品實現、產品使用、到壽命期滿之後的除役及銷毀階段,系統性分析與處理器材風險。參見相關部落格短文介紹:

小結

風險管理管理過程的陳述,主要是設計開發醫療器材時的考慮事項;但是,同樣的程序略微調整之後,仍然適用醫療器材的實現/製造/組裝、使用、直到壽命期滿的各個階段。善加利用風險管理標準過程及工具,當可協助製造商更有效地進行風險分析與籌劃降低風險的對策。

由以上的說明,可以讓醫療器材製造商認識到失效模式與效應分析(FMEA及FMECA)在醫療器材風險管理過程上的侷限性和可能的誤會情形,並且可以更加專注在醫療器材風險管理的程序和整體面貌。


參考資料:
[1] Jon Speer, "Is your risk management system for medical devices up to date?", Medcity News, 2012-08.
[2] ISO 31000:2018 風險管理-原則與指導綱要

初稿:2016-02
次修:2024-06
三修:2024-12.
(本篇竟)