ISO/IEC 42001:2023
Information technology — Artificial intelligence — Management system
資訊技術—人工智慧—管理系統
隨著人工智慧變得越來越流行,對強大的人工智慧(AI)治理架構的需求促使國際標準化組織(ISO)和國際電工委員會(IEC)於2023年12月18日發布了 ISO/IEC 42001:2023 國際標準。該標準提供了一個可驗證的人工智慧管理系統(AIMS)架構。在此架構內,人工智慧系統作為人工智慧保證生態系統的一部分進行開發和部署。
該標準對於在人工智慧工作中尋求驗證的組織來說,這是一個重要的里程碑,它為企業提供了首個獲得人工智慧驗證的途徑,強調了負責任的人工智慧實踐在當今技術環境中日益增長的重要性。該標準還為組織建立了一個架構,以系統地解決和管制與人工智慧開發和部署相關的風險。
隨著人工智慧的應用變得更加廣泛,ISO/IEC 42001:2023 提供了一個可驗證的人工智慧管理系統架構,在該架構內,人工智慧產品可以作為人工智慧驗證系統的一環進行開發。 最終目標是幫助企業和社會從人工智慧中獲得最大利益,並向利害關係人保證他們是負責任地開發系統。
實施 ISO/IEC 42001:2023 的重要性
人工智慧正在迅速發展,現已被許多行業、產品和服務所採用。不可否認,人工智慧正在並將進一步影響社會和吾人的生活。
由於人工智慧快速進步和日益俱增的影響力,當今社會必須面對信任、倫理和社會問題做出回應和必要對策。人工智慧應當且必須是可靠的、公平的、透明的,從而確立其值得信賴。
該標準提供了人工智慧的定義,即:「獲取、處理、創建和應用以模型形式保存的知識以執行一項或多項給定任務的能力」。此項定義從技術角度來說更加準確,不僅限於人工智慧已經應用的領域,而且尚保留進一步發展的空間。 人工智慧系統的運作方式係基於輸入(包括可由人類或機器提供的預定義規則和資料)工作,以執行特定任務。換句話說,計算機接收來自環境的輸入,然後通過一個或多個模型和底層算法處理輸入來計算和推斷輸出。
隨着人工智慧的能力呈指數級增長,人們對隱私、偏見、不平等、安全和保障深感擔憂。研究人工智慧風險如何影響用戶對於確保這些技術的負責任和可持續展開至關重要。如今,企業比以往任何時候都更需要一個架構來指引企業的人工智慧旅程。國際標準組織制定的全球首個專門人工智慧管理系統 ISO/IEC 42001標準得以處理此項需求。
ISO/IEC 42001:2023 涵蓋哪些內容
該標準規範了人工智慧管理系統的建立、實施、維護和持續改進的要求並提供指引。 ISO/IEC 42001:2023 可以幫助企業組織負責任地開發或使用人工智慧系統,以實現其目標,同時滿足監管要求以及相關單位的義務和期望。ISO/IEC 42001標準的目的
為組織提供其需要的人工智慧全方位指引,包括下列事項:
- 在人工智慧快速發展時期,負責任地有效使用人工智慧
- 建立人工智慧架構,旨在涵蓋人工智慧各個方面,及企業可能運作的不同應用
- 組織得以負責任地管理與人工智慧相關的風險和機會,及有效處理該等風險的綜合性方式
- 促進人工智慧的可信度、透明度以及合乎倫理的使用
- 促進人工智慧的創新和增長,同時確保負責任的開發和展開
為什麼要採用 ISO/IEC 42001:2023?
ISO/IEC 42001:2023 的出現係協助企業和整個社會以安全地、有效率地使用人工智慧功能與績效而獲取最大價值。 因此,該標準可以幫助組織和使用者: 為人工智慧系統與技術的治理和管理提供指引;- 提供一種系統方法處理和在公認的管理系統架構中實施人工智慧相關的挑戰事項;
- 提高人工智慧應用的品質、安全性、可追溯性、透明度和可靠性;
- 處理某些應用層面的挑戰,涵蓋倫理、當責制、和資料隱私等領域;
- 增強對人工智慧系統的信心;
- 降低人工智慧系統開發成本;
- 監督人工智慧管理系統的各個方面,維持監管法規的符合性;
- 滿足客戶、員工和其他利害關係人對人工智慧系統的倫理和負責任使用的期望;
- 提高組織應用人工智慧系統效率和風險管理過程,從風險評估到有效處理這些風險。
ISO/IEC 42001的主要要求
- 組織環境:了解內部和外部因素、利益相關者和人工智慧相關目標;
- 領導力:最高管理階層人員的承諾、當責制和促進人工智慧意識文化;
- 策劃:識別人工智慧系統的機會和風險、定義目標並規劃相關措施;
- 支持:提供必要的資源、能力、意識和溝通;
- 運作:實施人工智慧系統、管理資料、監控性能和應對風險;
- 績效評估:監視和量測人工智慧系統績效,根據既定目標執行相關評鑑,執行稽核並審查稽核結果;
- 改進措施:根據評鑑結果和回饋事項,採取措施改進人工智慧系統(AIS)和人工智慧管理系統(AIMS)。
適用目標群體
預期適用於開發、展開或使用人工智慧系統的任何規模、行業或地理位置的組織 ;
使用者得以透過多種方式獲得下列利益事項:
- 提高人工智慧應用的品質、安全性、可追溯性、透明度和可靠性;
- 提高效率和人工智慧風險評鑑;
- 對人工智慧系統獲得更多信任感;
- 降低人工智慧開發成本;
- 通過符合日漸更新之法律與法規的實務管制方式、稽核計劃和指導措施,更妥切地遵守法規。
持續改進的穩健環圈
凡屬於管理系統標準之一,ISO/IEC 42001依循國際標準組織指令的系統方法,圍繞建立、實施、維護和持續改進人工智慧的「計劃—執行—檢核—行動」過程而構建妥當的管理系統。此種系統方法係國際標準界的重要工具,可以從多個方向說明原因如下:
- 確保人工智慧得以增加利益價值並予以認可,且實行正確的監督水準。
- 管理系統使組織能夠按照人工智慧相關技術的指數級發展主動調整其方法。
- 鼓勵組織定期執行人工智慧風險評鑑,並執行人工智慧風險處理活動。
採用人工智慧的利益
- 負責任的人工智慧:確保以合乎倫理及負責任的方式使用人工智慧;
- 信任性管理:增強對人工智慧應用的信任;
- 人工智慧治理:支持遵守法律和監管標準;
- 實用指導:有效地管理人工智慧的特定風險;
- 鑑別機會: 在結構化架構内鼓勵創新。
釋放人工智慧的潛力
當代一個明顯的趨勢,日益壯大的人工智慧與人工智慧系統及其應用將隨着時間的推移不斷改進和進步。與此同時,人工智慧管理將需要適應這些變化,重點關注為商業世界維護和加速人工智慧系統的不同方式。吾人發現自己正處於十字路口,需要採取審慎的方法。吾人如何充分利用人工智慧機會的潛力且避免落入潛在風險的陷阱?
只有在堅定執行有效的治理行為,才能在變化多端的世界裡遊刃有餘地尋求機會和風險之間的平衡運作。這就是為什麼企業和產業界領導階層必須採納ISO/IEC 42001自我訓練,利用人工智慧系統爭取利益最大化,妥善運用人工智慧管理系統為基礎,在各種應用程序中依循倫理地、安全地和前瞻性地使用人工智慧奠定基礎。該等做法須視為一種平衡性行為,更清楚地瞭解此種平衡作用可以幫助吾人克服集體人工智慧之旅中的陷阱。
人工智慧系統驗證過程
- 了解標準:了解ISO/IEC 42001標準及相關要求
- 聯繫驗證機構:討論及確認預期驗證目標及標準,及預估驗證時期,由驗證機構提供詳細的建議和報價
- 適任性:找出員工在技能和適任性方面可能存在的差距。必要時參加外界提供該標準的訓練和研討會
- 差距分析: 參考擬驗證標準找出組織既存的薄弱環節
- 第一階段:確認已納入該標準且順利運作
- 第二階段:確認組織已全面實施該標準
- 驗證:在組織向外界宣告成功實施之前,須獲得驗證機構頒發人工智慧系統驗證範圍的證書。組織的利益相關者可以透過驗證機構公告週知的客戶登錄系統查看組織的人工智慧系統驗證範圍
- 持續改進:驗證機構依驗證要求執行定期追蹤稽核,幫助組織維護和改進人工智慧管理系統
註:此文並未涵蓋該文件全部事項,相關內容務須參閱各項文獻原本及最新版次。此處係閱讀隨筆,僅供個人學習,非供印刷或潛在意圖出版。
© All Rights reserved.
詳細內容參見標準原文。
(未完,見續篇)
沒有留言:
張貼留言