2025年1月7日 星期二

機器學習之冗贅型偏差廿問(五之六)

(見前篇

© All Rights reserved. 版權聲明

14. 是否有標準或指南可以處理機器學習中的冗贅型偏差?

國際標準組織如ISO, IEC IEEE已經制定相關標準和技術規格,以幫助解決人工智慧系統中冗贅型偏差。例如:

ISO/IEC TS 127912024 提供機器學習的分類和回歸任務中緩解冗贅型偏差的技術。附圖為該標準內容的目錄。


尚有若干參考及引述標準,參見後文第21項的延伸閱讀建議。


15. 組織如何確保其人工智慧系統機器學習模型能祛除偏差?

組織宜按照政策及策略性做法,識別及文件化相關的各個要求事項,旨在減少人工智慧系統內、建議事項、決定或其它由人工智慧系統激盪後產出之冗贅型偏差。涉及偏差來源要求事項宜考慮如下:

  • 各項適用之法規要求;
  • 顧客期待;
  • 內部目標、策略及政策,如:倫理政策;
  • 組織在人工智慧部份的過程及決策;
  • 收集過往已知失敗模式,由既有來源可獲得者,如:組織文件資料中,以前的系統故障或人工智慧事件資料庫;
  • 由個別人士或群體在人工智慧生命週期內做出的各種假設事項、各項過程、各項決定及直接相關活動。

組織宜將前述偏差來源的合宜措施結合風險管理系統,無論是從設計、開發、部署及使用人工智慧系統而來者。組織應評鑑受到前述鑑別出偏差來源可能引起風險影響之利害相關者。

註:冗贅型偏差的風險包括:無作為或認知失措引起的冗贅型偏差風險。

 

宜考慮資料集裡顯示之瀕危群體,資料源自訓練、確證、測試或生產等過程;即使該等群體之個別成員的資料並未在群體內的資料中特別辨識之。此舉有助於披露代理型偏差。

 

為減少偏差,宜與風險管理協同辦理事項,各種廣泛的面向如下示:

  • 變更性管理計劃的文件化;
  • 組織盤點事項納入該項目的文件化;
  • 與資深管理階層溝通相關之偏差風險。

涉及冗贅型偏差的風險,可以從資料的不正確使用或錯誤的標籤、人工智慧系統任務及目標、系統之使用時的前後環節等而致,包括與人類之交互作用、未能充分達到內部與外部的要求事項。此等風險將會實質上影響一或多個利害相關者群體。

組織能通過實施穩固的資料治理實務、定期進行偏差評鑑、培養合乎倫理的人工智慧開發文化、遵循已成文的指引文件及最佳實務,從而確保得以祛除各種模型產出的偏差。持續的監督與改進方能維持平等性並防範偏差出現。

 

16. 如何維持組織的人工智慧系統與機器學習的運作,避開冗贅型偏差的干擾?

組織須文件化及密切配合其採用的方法,以確保風險對治處理識別出的冗贅型偏差,亦對人工智慧系統部署後持續產生的偏差有著預期效應。此種方法須包括必要準則,即必要時所有查證活動須要再做一遍。上述方法須:

  • 提供合宜方法對治冗贅型偏差或模型再訓練;
  • 考慮任何種持續學習或模型再訓練;
  • 考慮周遭資料供應來源及使用者界面的變化。

上述方法之外,尚須考慮加強風險對治手法:

  • 運作時監督冗贅型偏差;
  • 當模型再訓練時監督訓練資料的變化;
  • 當處理時超過既定使用限制事項時,以技術性機制警示操作者;
  • 當生產出資料帶有輸入超過查證活動已經評鑑過的範圍時,以技術性機制識別出來;
  • 供終端使用者識別潛在冗贅型偏差的機制,並知會操作者;
  • 有效作用地由人類從旁查察方式;
  • 不良後果的補救方式。

組織尚須確保總有辦法合宜地登錄進去人工智慧系統,支援和監督前述揀擇出來的冗贅型偏差與對治處理工作。

 

17. 組織的人工智慧系統的管理階層與負責人員,如何決定人工智慧系統與機器學習的運作達到何種階段才能夠接受呢?

組織須決定為了功能型正確度而做出合宜的容許差。在評估人工智慧系統之前做出容許差的閥值和餘裕度。選定的接受準則宜文件化並提供佐證說明。若是功能型正確度因應通常群體和瀕危群體而有所差異,組織須準備該等資訊供相關之利害相關者需要時可以獲得,並說明其間差異。接受準則須配合預期使用及運作狀況的背景環境而文件化。系統的接受準則得以執行測試。當接受準則係特定於相關產出事項,宜以量化方式陳述之。

例如:利害相關者可以要求偽陽性(或偽陰性)比率的最大容許限制,則此限制便成為接受準則的起碼要求。

組織須宣告參與做出決策的諸多人工智慧利害相關者,而後者皆須敘述對該項人工智慧系統運作的滿意程度。

(未完,見續篇

沒有留言: