2023年11月12日 星期日

ISO/IEC 23894 人工智慧 風險管理指引

ISO/IEC 23894:2023

資訊科技 — 人工智慧  風險管理指引

Information technology — Artificial intelligenceGuidance on risk management

該標準旨在幫助組織管理與人工智慧系統相關的風險,建立風險管理架構,提供關鍵領域指引:

  • 風險評鑑需要識別在的人工智慧系統風險,例如偏錯誤和安全漏洞。

  • 風險處:一旦定了危害,組織須決定最有效的行方案以有效管理之。可能涉及減輕另一方或接受它

  • 風險溝組織須將人工智慧系統相關的風險告知相利益相者,例如;消者、客監督機構

  • 監督風險為確風險管理架構保持有效,組織須監控人工智慧系的性能,並定期風險管理架構。

採用該標準實施人工智慧風險管理的主要優勢,包括:

  • 強化風險管理該標管理人工智慧系風險提供全面架構,組織更有效地識別減輕潛風險

  • 提高透明度:通向利益相傳達與人工智慧系風險組織可以提高透明度,並監督機構和其他利益相者建立信任感。

  • 符合法規要求組織達成人工智慧風險管理的相關法規要求。

  • 強化決:如果組織全面了解相關風險,即可對人工智慧系的使用和展開做出更加明智的策。

註:此文並未涵蓋該文件全部事項,相關內容務須參閱各項文獻原本及最新版次。此處係閱讀隨筆,僅供個人學習,非供印刷或潛在意圖出版。

© All Rights reserved. 版權聲明


簡介
風險管理的目的是創造和保護價值,提高績效、鼓勵創新並支援實現目標。此文件係配合 ISO 31000:2018 一齊使用。每當此文件延伸 ISO 31000:2018 中展示的指引時,都會參考對應的 ISO 31000:2018 條款,附加關於人工智慧的特定指引(如果適用時)。為使此文件與ISO 31000:2018之間的關係更加明確,ISO 31000:2018的條款結構亦呈現在此文件中,並于小節配合寫出修訂事項。


1節 範圍 –此標準旨在幫助組織開發、生產、展開或使用人工智慧的產品、系統和服務時,可以管理人工智慧特定相關的風險,內容陳述組織如何管理與人工智慧( AI )開發和使用的相關風險提供指引,協助組織將風險管理整合到人工智慧帶動的活動和業務功能,最終得以更有效地和安全地使用人工智慧。寄望有助於提高基於人工智慧的產品、系統和服務的可信賴性和可靠性,如此得以加強組織採用和使用人工智慧。

4原則 – 本條款描述了風險管理的基本原則。人工智慧的使用需要具體考慮ISO 3100020184中所述的一些原則。

5架構-風險管理架構的目的在於幫助組織將風險管理整合到重要的活動和職能中。 ISO 31000:2018 5中描述了人工智慧系統的開發、配置或提供或使用的具體方面。

6過程-風險管理過程涉及將政策、程序和實踐系統地應用到溝通和諮詢、建立背景以及評估、處理、監控、審查、記錄和報告風險的活動中。 ISO 31000:2018 6描述人工智慧專相關過程。

附件 A 人工智慧相關的常見目標

附件 B 人工智慧相關的風險來源。

附件 C 風險管理過程和人工智慧系統生命週期之間的範例對照。 

1範圍


本文件提供有關開發、生產、展開或使用利用人工智慧 (AI) 的產品、系統和服務的組織如何管理與 人工智慧 相關的風險的指引。該指引還旨在幫助組織將風險管理整合到其與人工智慧相關的活動和職能中。此外,它還描述了有效實施和整合人工智慧風險管理的過程。

該標準並非驗證用標準。該指引得以調整適用於各型各類背景環境的組織。

2節 參考標準


3節 辭彙與定義參見ISO IEC官方網址內容(見指引內容)


4節 人工智慧風險原則

人工智慧風險標準旨在協助組織將風險管理原則納入其與人工智慧相關的活動和職能。它指出,人工智慧係統可以為組織帶來新的或出現的風險,對目標產生正面或負面的影響,或者改變現有風險的可能性。他們還必須組織進行具體考慮。涉及以下原則:(摘要)

利益相關者的包容性: 由於使用人工智慧系統可以導致與多個利益相關者的互動,因此組織應尋求與各種內部和外部團體的對話,以傳達危害和利益, 並將反饋和意識納入風險管理過程。利益相關者的投入將有利於機器學習用例,並且通常有利於自動決策過程,並確保人工智慧系統的整體透明度和可解釋性。

動態風險管理:由於人工智慧系統是動態的,需要不斷學習,完善和驗證,因此需要經常更新與人工智慧相關的法律和法規要求。組織應尋求了解人工智慧將如何與管理系統集成,以及它將如何影響其環境足跡,健康與安全以及法律或公司責任。

最佳可用資訊:由於人工智慧會影響個人與技術互動和對技術做出反應的方式,因此建議組織在整個人工智慧系統生命週期中保留有關人工智慧系統持續使用的資訊。

人因和文化因素:人因行為和文化在每個層級和階段都極大地影響風險管理的各個方面。從事人工智慧系統的設計,開發或展開的組織,或這些系統的任意組合,應監督其不斷發展的文化景觀。組織應特別關注人工智慧系統或其組件對隱私,言論自由,公平,安全,就業,環境的影響,更廣泛地關注人權。假若沒有人因的解釋,決策的偏見可能會被忽略。

持續改進:在持續改進過程中應考慮識別與使用人工智慧系統有關的先前未知的風險。從事設計開發或展開人工智慧系統或系統組件或這些組件的任何組合的組織應監視人工智慧生態系統以獲取性能成功缺點和經驗教訓並保持對新的人工智慧研究發現和技術的認識。

(以下為詳述內容)

風險管理應使用整合、結構化和全面的方法達成組織的需求。各項指引原則供組織確定優先等級,並就如何管理不確定性對其目標的影響做出決定。此等原則適用於所有組織層級和目標,既是戰略亦為運營。

於各種環境中特定的使用案例,系統和過程通常結合各種技術和功能展開。風險管理須考慮到整個系統及其所有技術和功能及其對環境和利益相關者的衝擊。

人工智慧系統可以為組織引入新的或浮現出的風險,對目標發生正面或負面的影響,或者改變現有風險的或然率。亦可以組織特定考慮。本文件提供有關組織可以實施的風險管理原則、架構和過程的附加指引。

註:「風險」的定義在不同標準間另有些微差異,請參考各項標準中做出的定義,實務上須審慎遵行。

表一:用於人工智慧的風險管理原則

註:

甲:ISO 31000:20184章內容,已陳述下列原則內容,不再引述;

乙:開發與使用人工智慧的涵義,簡介如下。

  1. 整合性(乙:無)

  2. 架構性與易理解(乙:無)

  3. 客製化(乙:無)

  4. 包容化,乙:由於人工智慧可能對利益相關者產生深遠影響,因此組織尋求與各種內部和外部團體進行對話以傳達危害和利益非常重要, 並將回饋和認知情況納入風險管理過程。

組織還須注意,使用人工智慧系統可以引入其他利益相關者。

利益相關者的知識,觀點和看法有益的領域包括但不限於:

  • 機器學習(ML)尤其通常依賴於適合實現其目標的資料集。利益相關者可以幫助識別有關資料收集,處理操作,資料的來源和類型以及在特定情況下或在以下情況下使用資料的風險,或許資料主體可能是異常值。
  • 人工智慧技術的複雜性帶來與人工智慧系統的透明度和可解釋性相關的挑戰。由於多種類型的資料模式,人工智慧模型形狀結構等特徵,人工智慧技術的多樣性進一步推動了這些挑戰, 每個利益相關者的需求須選擇的透明度和報告機制。利益相關者可以幫助確定目標並描述提高人工智慧系統透明度和可解釋性的方法。在某些情況下,這些目標和手段可以推廣到整個使用案例和所涉及的不同利益相關者。在其他情況下,可以根據相關角色量身定制利益相關者對透明度架構和報告機制的每個使用案例細分人物(例如“監督者”, “企業主”,“模型風險)。
  • 使用人工智慧系統進行自動做出決策可以直接影響內部和外部利益相關者。這些利益相關者可以就例如需要人工監督的地方提供他們的觀點和看法。利益相關者可以幫助定義公平準則,也可以幫助確定在人工智慧系統的工作中構成偏見的可能事項。

  1. 動態化,乙:為了實施ISO 31000:2018提供的指引,組織須建立組織結構和措施,以識別與浮現風險、趨勢、技術、用途相關的問題和機遇,及人工智慧系統有關的參與者。

動態風險管理對於人工智慧系統尤為重要,因為:

  • 由於不斷學習、完善、評估和確證,人工智慧系統的性質本身就是動態的。此外,某些人工智慧系統具有基於此循環進行適應和優化的能力,從而自己創造動態變化。
  • 客戶對圍繞人工智慧系統的期望很高,並且隨著系統的變化而可能亦會迅速變化。
  • 人工智慧相關的法律和法規要求經常更改和更新

與品質、環境足跡、安全、醫療保健、法律或公司責任的管理系統整合,或由組織維護的任意組合, 還可以考慮進一步了解和管理與組織,個人和社會有關的人工智慧相關風險。

  1. 可獲得資訊最佳化,乙:考慮到對人工智慧影響個人與技術互動和反應的方式的期望, 對於從事人工智慧系統開發的組織,建議跟進追踪有關其開發的人工智慧系統的進一步使用的相關資訊, 而AI系統的用戶可以在整個過程中保留這些系統的使用記錄 人工智慧系統的整個生命週期

由於人工智慧是一項新興技術,並且不斷發展,因此歷史資訊可能會受到限制,未來的期望可能會迅速改變。組織應該 這考慮在內。

如果有的話,應考慮內部使用人工智慧系統。跟進追踪客戶和外部用戶對人工智慧系統的使用可能受到知識財產權、合約或特定市場限制的約束。此類限制須在人工智慧風險管理流程中記錄並當業務條件保障期間重新訪問時予以更新。

  1. 人因與文化因素,乙:從事人工智慧系統的設計、開發或展開或這些系統的任意組合的組織須監視其所處的人類和文化景觀。組織須專注於確定人工智慧系統或組件如何與現有的社會模式相互作用,從而導致對公平結果、隱私、言論自由、公平、安全、保障、就業、環境和人權的廣泛衝擊。

  2. 持續改進,乙:在持續改進過程中須考慮識別與使用人工智慧系統有關的先前未知的風險。從事設計、開發或展開AI系統或系統組件,或與該等組件的任意組合的組織,須監視人工智慧生態系統以獲得性能上的成功、缺失和經驗教訓, 並保持對新人工智慧研究發現和技術的認識 (改進的機會)。


5架構

風險管理架,以了解組織中人工智慧的背景(摘要)

擁有風險管理架構可幫助組織將風險管理整合到重要的職能和活動中。由於風險管理涉及為組織收集相關資訊以做出決定並解決風險,因此組織應決定組織內識別、評估和處理風險的過程。

註:參見ISO/IEC 38507:2022 組織使用人工智慧的治理影響作用,包括開發、採購或使用人工智慧系統。這些考慮因素包括新浮現的機會、風險偏好的潛在變化以及新的治理政策,以確保組織負責任地使用人工智慧。該標準可以與組織風險管理過程結合使用。

ISO 31000《一般風險管理標準》專門提供了有關領導力和承諾、架構整合和架構設計將如何幫助風險管理的指引。除了該指引之外,人工智慧風險標準亦建議組織在考慮其組織的內部和外部環境時遵循以下要素:

  • 由政府相關團體,標準化機構和行業協會發布的人工智慧道德使用和設計指引。
  • 大略敘述國際間各個領域的技術趨勢和進步。
  • 展開人工智慧系統的社會和政治影響,包括社會科學的指引。
  • 利益相關者對人工智慧系統或有偏見的人工智慧系統的看法。
  • 使用人工智慧,尤其是使用持續學習的人工智慧系統,以及如何影響組織履行合約義務和保證的能力。
  • 人工智慧的使用增加了網路和依賴事項的複雜性。
  • 人工智慧系統可以通過轉移和引入新的職責,角色和任務而對組織的文化產生影響。
  • 納入使用人工智慧系統的任何其他國際,區域,國家和地方人工智慧特定的標準和準則。
  • 使用人工智慧系統會導致所需資源數量的變化以及專業知識的充裕或喪失。
  • 使用人工智慧可以提高資料處理品質。
  • 對操作人工智慧系統的專業訓練的需求日益增加。


6過程

風險管理過程(摘要)

人工智慧風險標準包含通用風險管理標準的指引,該指引認識到風險管理過程須整合到結構中, 組織的運營和過程,也須進行訂製以實現適合其應用的外部和內部環境的目標。人工智慧風險標準建議風險評估過程須特別注意確定組織中正在開發或使用人工智慧系統的位置,並提供一個映射,舉例說明風險管理過程和人工智慧系統生命週期。

作為人工智慧系統風險管理過程的一部分,組織宜考慮以下事項:

  • 組織利益相關者的環境–是組織的一部分,還是客戶,供應商,最終用戶或監督機構?
  • 人工智慧系統各個部分的不確定性,包括軟體,數學模型和系統循環中的人為方面。
  • 對測量方法的有效性和適當性的一致評估。
  • 確定風險水準和人工智慧系統潛在影響的一致方法,例如:對用於訓練人工智慧系統的組織或個人的影響。
  • 組織的人工智慧能力,知識水準以及減輕明顯人工智慧風險的能力。
  • 確定風險及其來源

人工智慧風險評鑑須包括四個主要方面:

  • 一般事項:包括人工智慧系統的目的、範圍、使用者、資料、背景環境等。
  • 風險識別:識別人工智慧系統可能面臨的所有風險,包括:資料集、自動化、信賴性、技術風險、倫理風險、法律風險、安全漏洞等。
  • 風險分析:評估風險的可能性和影響。
  • 風險評估:根據風險的可能性和影響,確定人工智慧系統的風險等級。

下列事項協助組織實施風險評鑑措施:

  • 使用專業的工具和方法:可以使用專業的風險評鑑工具和方法,幫助識別和評估人工智慧系統的風險。
  • 建立風險管理流程:應建立完善的風險管理流程,確保人工智慧系統的風險得到有效的管理。
  • 定期進行風險評鑑:隨著人工智慧系統的不斷變化和更新,須定期進行風險評鑑,以確保風險評估結果的準確性。


人工智慧風險評鑑檢查表宜考慮事項如示(非完整列表)

  • 一般風險general risk (GER)
  • 人工智慧當責制 AI accountability (ACC)
  • 人工智慧專業性 AI Expertise (AIE)
  • 訓練與測試資料集 Training and test data set (TTD)
  • 環境衝擊 Environment impact (ENI)
  • 人工智慧公平性 AI Fairness (AIF)
  • 人工智慧維護性 AI maintainability (AIM)
  • 人工智慧隱私性 AI privacy (AIP)
  • 人工智慧強固性 AI robustness (AIR)
  • 人工智慧安全 AI safety (AIS)
  • 人工智慧保全 AI security (ASE)
  • 人工智慧透明度與可解釋性 AI transparency and explainability (ATE)

產業界可能採取的風險處理事項(非完整列表)

  • 風險規避:避免採取可能導致風險的行動。
  • 風險減少:降低風險發生的可能性或影響。
  • 風險轉移:將風險轉移給第三方,例如:購買產品責任保險。
  • 風險接受:接受風險,並採取相應的措施來降低風險的影響。

具體的風險處理措施(非完整列表)

  • 技術風險:使用合適的技術解決方案,並定期進行安全更新。
  • 資料品質:建立嚴格的資料品質控制流程,並定期對資料進行監控。
  • 偏見和歧視:使用公平的資料集,並對人工智慧系統進行偏見評估。
  • 安全漏洞:定期對人工智慧系統進行安全漏洞掃描,並及時修復漏洞。
  • 倫理問題:建立倫理審查流程,並確保人工智慧系統的開發和使用符合倫理原則。

風險來源宜考慮各種因素:(非完整列表)

  • 資料品質:人工智慧開發期使用的資料尚非實際應用時資料,兩者間差異及使用背景,對資料的品質將影響人工智慧系統的準確性和公平性。
  • 環境複雜:人工智慧系統的規模與複雜情況可能跨越傳統軟體應用到現今科技水準,潛在性決策點上看數兆等級
  • 自動化層級:產業界的自動化狀況對應人工智慧系統實務,及預期的進階自動化程度。
  • 偏見和歧視:人工智慧系統可能會因為資料偏差而產生偏見和歧視的結果,引致理解性、信賴性及應用實務方面的衝擊。
  • 倫理問題:人工智慧系統的使用可能會涉及倫理問題,例如:隱私保護、自主權等。
  • 機器學習人工智慧系統為自主型學習或人工協助學習,所獲得的結果及影響人工智慧系統輸出。
  • 安全漏洞:人工智慧系統可能存在安全漏洞,如系統界面多元性而挑戰軟體設計,一旦出現漏洞疑似被駭客利用,攻擊系統或竊取使用者資料。
  • 系統硬體:匹配人工智慧系統的硬體需求適時更新或轉換,並考慮相容性、可轉換性及可維護性。
  • 系統生命週期人工智慧系統生命週期的各項過程,例如:人工智慧專案策略、原則、規劃、型成概念、啟動、技術管理、技術開發、訓練、測試、驗證及確證、展開、符合性評鑑、回饋及更新等。

其它已知或潛在危害事項,可能減損或降低人工智慧系統的預期使用情況,如:信賴性、穩固性、理解性、技術準備程度等,亦須納入風險評估及風險分析。

Annex C 人工智慧系統生命週期

人工智慧系統生命週期包含在軟體系統、產品和服務的獲取、供應、開發、操作、維護或處置期間適用的過程、活動和任務。人工智慧系統、品和服的概念化,通常分成三個階段:專案啟動,技術管理及技術實踐,須各種利益相關者的參與而完成,最終目標是實現安全、有效、符合法規要求及預期使用。目前既有之人工智慧特定的生命週期過程,共通性過程宜包含:取、供開發、實踐(包括:規劃、功能、評估、展開)、操作、維護、進化、退出和置(無論是在組織內是外部行),以及任何系軟體部分,包括嵌入軟體部分。

註:參見相關標準,

組織管理各項過程

美國國家標準與技術研究院(NIST)公布的人工智慧風險管理架構AI RMF 1.0(見另文介紹),對應ISO/IEC 23894章節,交互參考,例如:

治理govern培養與維持風險管理文化,對應ISO/IEC 23894章節:

  • 5.2 領導力與承諾
  • 5.3 整合
  • 5.4 設計
  • 5.4.2闡明風險管理承諾
  • 5.4.3 指派組織角色、權責、責任及當責
  • 5.4.4 資源配置
  • 5.4.5 建置溝通與顧問

映射map識別背景環境及相關風險,對應ISO/IEC 23894章節:

  • 5.4.1理解組織與前後環節
  • 6.3.2定義範圍
  • 6.3.3 外部與內部背景環境
  • 6.3.4 定義風險準則
  • 6.4風險評鑑
  • 6.4.2風險識別
  • 6.4.2.3 識別風險來源
  • 6.4.2.4 識別潛在不良事件與結果
  • 6.4.2.6 識別後續效應
  • 6.4.3風險分析
  • 6.7紀錄與報告

量測measure識別出的風險皆須評鑑、分析或追蹤,對應ISO/IEC 23894章節

  • 6.3.4 定義風險準則
  • 6.4.2.5 識別管制事項
  • 6.4.3風險分析
  • 6.4.3.2 評鑑後續效應
  • 6.4.3.3評鑑或然率
  • 6.6 監督與審查
  • 6.7紀錄與報告

管理manage按風險優先順序予以處置,對應ISO/IEC 23894章節

  • 5.5 實施
  • 5.7 改進
  • 6.5風險處置
  • 6.5.2 挑選風險處置事項
  • 6.5.3 準備及實施風險處置計劃
  • 6.6 監督與審查
  • 6.7紀錄與報告

詳細內容參見標準原文。

本篇竟


沒有留言: