顯示具有 要求 標籤的文章。 顯示所有文章
顯示具有 要求 標籤的文章。 顯示所有文章

2024年2月16日 星期五

ISO/IEC 42001:2023 人工智慧管理系統概述(三之三)

ISO/IEC 42001:2023
Information technology — Artificial intelligence — Management system
資訊技術—人工智慧—管理系統(續,見前篇

註:此文並未涵蓋該文件全部事項,相關內容務須參閱各項文獻原本及最新版次。此處係閱讀隨筆,僅供個人學習,非供印刷或潛在意圖出版。

© All Rights reserved. 版權聲明


人工智慧品質管理系統要項:

(1)確定組織在人工智慧領域的角色定位

當建立人工智慧管理系統時,組織須先定位自身在人工智慧系統領域的角色,安排建立和實施人工智慧管理系統的內容。考慮人工智慧系統各相關角色,供組織在確定自身角色定位時參考。

註:相關角色包括(但不限於):人工智慧提供者、人工智慧生產者、人工智慧顧客、人工智慧合作者、人工智慧主題相關者、人工智慧相關主管機構與法規制定者;

(2)理解組織面臨的內外部問題

確定角色定位后,組織須進一步分析在人工智慧管理領域所面臨的內外部問題,從而為建立人工智慧管理系統提供必要的輸入。

(3)理解組織利益相關者需求與期望

組織須識別與人工智慧管理的利益相關者,理解各相關政策對人工智慧系統的管理需求與期望。如組織是人工智慧平臺提供商,則須考慮人工智慧平臺使用者、人工智慧平臺合作夥伴、人工智慧符合性監管者的需求與期望,該等需求與期望可能包括個人隱私保護、事件處理的透明性、符合性管理等等。

(4)制定人工智慧管理政策

與所有其他管理系統標準導入過程類似,組織在建立人工智慧管理系統時,其最高管理階層須制定人工智慧領域的管理政策,典型的人工智慧管理政策可考慮包含:
  • 目標和原則、
  • 資料管理、
  • 系統設計、
  • 透明性和可解釋性、
  • 倫理和法律符合性、
  • 訓練和教育、
  • 監督和評估。
(5)進行人工智慧風險評鑑,對人工智慧系統可能產生的衝擊進行評估

組織須對人工智慧風險進行識別、分析與評估。制定人工智慧風險評估過程,明確人工智慧風險準則,並按照風險評估過程與準則開展人工智慧風險評鑑工作。組織須針對不可接受的風險,宜參照標準附錄A選擇風險控制措施,制定詳細的風險處置計劃,按照控制措施選擇結果制定《人工智慧管理系統適用性聲明書》。人工智慧風險評鑑的具體方法可參考國際標準化組織於2023年初發布的一份標準《ISO/IEC23984:2023 資訊技術 - 人工智慧 - 風險管理指引》的內容。(見另文介紹

(6)人工智慧目標管理

組織規劃人工智慧管理系統過程時須基於內外部環境分析、相關者需求及期望以及風險評估結果制定管理目標,明確實現管理目標的措施、責任及時間表。

(7)人工智慧管理系統標準支援條款

該標準還明確了為支持管理系統有效運行的支援要求(或者說是賦能要求),包括:資源、能力、意識、溝通及文件化資訊。

(8)人工智慧管理系統運行

人工智慧管理系統運行部分的要求參見ISO/IEC 27001:2022資訊安全管理系統標準;人工智慧管理系統運行取決於風險評鑑結果及風險處理要求,而風險處理措施的實務就是人工智慧管理系統的營運要求,風險處理的內容係實踐附錄A控制措施的內容。

(9)人工智慧管理系統績效評估與持續改進

人工智慧管理系統績效評估與持續改進部分的要求參見ISO/IEC 27001:2022資訊安全管理系統標準,標準明確規定對管理系統績效須執行持續監督、量測與評鑑,對管理系統執行的有效性進行定期的內部稽核,最高管理階層須定期對管理系統的適宜性、有效性及充分性予以審查,對系統運行、績效評估、內部稽核、管理審查等過程的各類不符合事項採取矯正及矯正措施,從而持續改進人工智慧管理系統的適宜性、充分性和有效性。

人工智慧管理系統標準管制措施概述

ISO/IEC 42001人工智慧管理系統標準“附錄A”明確規定了企業在人工智慧系統設計與營運過程中須執行的控制目標與控制措施,須考慮九項控制面向,各項控制措施的應用取決於人工智慧系統的風險評估結果。
  1. 人工智慧政策
  2. 內部組織管理
  3. 人工智慧系統資源
  4. 人工智慧系統衝擊評估
  5. 人工智慧系統生命週期
  6. 人工智慧系統資料
  7. 人工智慧系統相關者需了解的資訊
  8. 人工智慧系統的使用
  9. 第三方關係

1、人工智慧政策

組織須制定人工智慧政策,確保人工智慧政策與組織其他管理領域的政策(例如:品質政策、資訊安全政策、健康與安全政策、保護個人隱私政策等)保持一致,並定期審查既定政策的執行情況。

2、內部組織管理

在組織內建立當責制,明確規定人工智慧系統營運與管理的各項職責。須考慮採取以下控制措施:
  • 根據組織自身需求定義人工智慧的角色與職責(該等角色與職責可能包括人工智慧風險評估、保護個人隱私、健康與安全、供應鏈管理等),並將該等角色與職責分配至相關職能。
  • 基於明確化的角色與職責,組織須建立有效的報告過程以確保員工及時報告人工智慧生命週期的關切事項,該等關切事項涉及人工智慧生命週期的各個階段。
  • 係稱關切事項通常包括:人工智慧的透明性、信賴性、保全漏洞、人工智慧系統潛在的倫理問題等。

3、人工智慧系統資源

組織須詳細描述人工智慧所需的各項資源內涵,以便充分理解和處理人工智慧面臨的風險與衝擊。須針對人工智慧系統各類資源進行控制,該等資源包括:
  • 人工智慧系統部件、
  • 人工智慧系統整個生命週期涉及的資料、
  • 人工智慧開發應用工具、
  • 系統與計算資源、
  • 人力資源及所需的適任性。
不僅須對該等資源進行配備置,亦須對該等資源予以全面識別、文件化並配合人工智慧系統的變化,伴隨相關的動態變更。

4、人工智慧系統(正向或負向,尤其是負向)衝擊評鑑

組織須在人工智慧系統生命週期對利益相關者可能造成的(正向或負向,尤其是負向)衝擊進行評鑑。須建立人工智慧系統衝擊評鑑過程,明確人工智慧系統衝擊評鑑的職責、評鑑的時機、評鑑須考慮的內容等。按照所建立的過程要求對人工智慧系統在其生命週期各階段對個人、群體及社會可能造成的衝擊進行評鑑,並將評鑑結果文件化。

5、人工智慧系統生命週期

確保組織針對人工智慧系統的設計與開發建立識別,制定文件化的管理目標,並落實執行各項控制過程。
  • 負責任地開發人工智慧系統:確定管理目標並文件化,用以指導開發可信任的人工智慧系統。標準提到的「可信任性(trustworthy)」是指『人工智慧系統能夠在沒有偏見或歧視的情況下,以可預測和可靠的方式做出正確的決策』。
  • 定義人工智慧系統的設計與開發過程:為確保組織設計與開發的人工智慧系統具備可靠性特徵,組織須定義人工智慧系統設計與開發的各個具體過程,並將該等過程文件化。
  • 明確人工智慧系統的需求與規格:針對新的人工智慧系統或對現有人工智慧系統的材料性質增強化(material enhancements),須明確設計與開發要求及規格。
  • 確保人工智慧系統的設計與開發過程文件化:人工智慧系統的開發與設計過程須文件化,目的是確保佐證說明開發與設計過程,符合組織設計開發需求目標、規格及準則等。
  • 對人工智慧系統進行查證和確證:對人工智慧系統的查證和確證措施須予以定義並文件化,亦須規定查證和確證措施的使用準則。
  • 對人工智慧系統的展開執行管控:須制定人工智慧系統展開計劃,確保在正式展開前達到相關的要求。
  • 對人工智慧系統的運行和監督進行控制:為確保人工智慧系統持續有效地運行,組織須定義必要的控制要素,並將該等控制要素文件化。該等控制要求至少須考慮系統和運行績效的監督、修復、更新及支持。
  • 確定所需的人工智慧系統技術文件:針對不同類別的利益相關者,組織須確定各自所需的人工智慧系統技術文件,並以適宜的形式向各種利益相關者提供該等文件。
  • 對人工智慧系統的事件日誌進行記錄:人工智慧系統在運行過程中,在需要時須啟用自動保留事件日誌的功能。

6、人工智慧系統資料

確保組織充分理解資料在人工智慧系統生命週期各階段的作用與影響。
  • 管理人工智慧系統開發及優化的資料:定義人工智慧系統開發的資料管理過程,將其文件化並予以遵循和執行。
  • 資料獲取控制:針對人工智慧系統使用的資料,組織須針對該等資料的獲取/選用的詳細資訊予以確定並文件化。
  • 人工智慧系統資料品質管制:針對人工智慧系統開發與運行所使用的資料,組織須明確規定該等資料的品質要求,確保各項資料內容滿足既定要求。
  • 資料來源控制:針對人工智慧系統所使用的資料,組織須定義資料來源的查證與記錄過程,並將此項過程文件化。
  • 資料準備管理:組織須對資料準備需求及方法進行定義,並文件化。

7、為人工智慧系統相關者需了解的資訊

確保組織利益相關者能夠獲取必要的資訊以理解並評估風險及其衝擊。
  • 準備適用於使用者的系統文件及資訊:組織須確定並向人工智慧系統使用者提供所需的資訊。
  • 確保資訊的可理解性:組織向相關者提供的資訊應清晰、可理解並適用於當事人情況。
  • 提供外部通報機制:組織須確保相關者能夠通報人工智慧系統產生的負向衝擊。
  • 溝通事件:組織須制定人工智慧系統事件溝通計劃,明確向使用者溝通事件的時機及方式,並文件化溝通程序。
  • 向相關者提供資訊:組織須明確向相關者報告人工智慧系統資訊的義務,提供資訊過程須遵循文件化程序。

8、人工智慧系統使用

確保組織負責任地根據組織政策使用人工智慧。
  • 建立過程,確保負責任地使用人工智慧。
  • 制定負責任地使用人工智慧的目標。
  • 確保人工智慧按照預期用途予以應用與使用。

9、第三方關係

對於人工智慧系統生命週期中涉及的第三方,組織須理解其責任並自始至終負責承擔該等責任。組織在評估並降低第三方風險的同時,亦須要求第三方評估並處理其與人工智慧產品和服務相關的風險。

詳細內容參見標準原文。
(本篇竟)

2024年2月14日 星期三

ISO/IEC 42001:2023 人工智慧管理系統概述(三之二)

ISO/IEC 42001:2023
Information technology — Artificial intelligence — Management system
資訊技術—人工智慧—管理系統(續,見前篇

ISO/IEC 42001各章節標題
4 組織背景

4.1 了解組織及其背景
4.2 了解有關各方的需求和期望
4.3 確定人工智慧管理系統的範圍
4.4 人工智慧管理系統

5 領導力
5.1 領導力及承諾
5.2 人工智慧政策
5.3 角色、責任和職權

6 規劃
6.1 應對風險和機會的行動
6.2 人工智慧目標和達成目標的規劃
6.3 變更之規劃

7 支援
7.1 資源
7.2 適任性
7.3 認知
7.4 溝通
7.5 文件化資訊

8 營運
8.1 營運規劃和管制
8.2 人工智慧風險評鑑
8.3 人工智慧風險處理
8.4 人工智慧系統衝擊評鑑

9 績效評估
9.1 監督、量測、分析和評價
9.2 內部稽核
9.3 管理審查

10 改進
10.1 持續改進
10.2 不符合項和矯正措施

附件 A 參考管制目標和管制措施
A.1 概述

附件 B 人工智慧管制措施實施指引
B.1 概述
B.2 人工智慧相關政策
B.3 內部組織
B.4 人工智慧系統的資源
B.5 評估人工智慧系統的衝擊
B.6 人工智慧系統的生命週期
B.7 人工智慧系統的資料
B.8 為利益相關者提供資訊
B.9 使用人工智慧系統
B.10 第三方和客戶關係

附件 C 與人工智慧有關的潛在組織目標和風險來源
C.1 概述
C.2 目標
C.3 風險來源

附件 D 跨領域或跨部門使用人工智慧管理系統
D.1 概述
D.2 人工智慧管理系統與其他管理系統的整合

參考文獻

註:此文並未涵蓋該文件全部事項,相關內容務須參閱各項文獻原本及最新版次。此處係閱讀隨筆,僅供個人學習,非供印刷或潛在意圖出版。

© All Rights reserved. 版權聲明


前言
國際標準化組織(ISO)和國際電工委員會(IEC)構成了世界標準化的專門系統。作為國際標準化組織或國際電工委員會成員的國家機構通過各自組織設立的技術委員會參與國際標準的制定,該等技術委員會負責特定領域的技術活動。國際標準化組織和國際電工委員會的技術委員會在共同感興趣的領域開展合作。與國際標準化組織和國際電工委員會聯絡的其他國際組織、政府組織和非政府組織也參與了這項工作。
ISO/IEC 指令第 1 部分介紹了制定該文件的程序和進一步維護該文件的程序。須特別指出的是,不同類型的文件須不同的審批標準。該文件是根據《ISO/IEC 指令》第 2 部分的編輯規則起草的(見 www.iso.org/directives 或 www.iec.ch/members_experts/refdocs)。
國際標準化組織和國際電工委員會提請注意,該文件的實施可能涉及專利的使用。國際標準化組織和國際電工委員會對相關專利權的證據、有效性或適用性不持任何立場。截至該文件發布之日,國際標準化組織和國際電工委員會尚未收到實施該文件可能須的專利通知。但是,請實施者注意,這可能並不代表該文件的專利權。

導言
人工智慧(AI)正越來越多地應用於利用資訊技術的各個領域,並有望成為主要的經濟驅動力之一。這一趨勢的一個後果是,某些應用可能在未來幾年引發社會挑戰。
該文件旨在幫助各組織負責任地履行其在人工智慧系統方面的職責(例如:使用、開發、監控或提供利用人工智慧的產品或服務)。人工智慧可能會引發一些具體的考慮因素,例如:
使用人工智慧自動進行決策,有時是以不透明和無法解釋的方式進行,可能須傳統資訊技術系統管理之外的特定管理方式。
利用資料分析、洞察力和機器學習,而不是人類編碼邏輯來設計系統,既增加了人工智慧系統的應用機會,也改變了開發、論證和部署此類系統的方式。
進行持續學習的人工智慧系統在使用過程中會改變其行為。它們須特別考慮,以確保在其行為不斷變化的情況下繼續負責任地使用。

該文件提供了在組織範圍內建立、實施、維護和持續改進人工智慧管理系統的要求。各組織須把要求的應用重點放在人工智慧獨有的特徵上。人工智慧的某些特點,如持續學習和改進的能力,或缺乏透明度或可解釋性,如果與傳統的任務執行方式相比引起更多關切,就須採取不同的保障措施。採用人工智慧管理系統來擴展現有管理結構是一個組織的戰略決策。
組織的需求和目標、過程、規模和結構以及有關各方的期望,都會影響人工智慧管理系統的建立和實施。影響建立和實施人工智慧管理系統的另一組因素是人工智慧的眾多應用實例,以及在管理機制和創新之間取得適當平衡的必要性。各組織可以選擇使用基於風險的方法來應用該等要求,以確保對組織範圍內的特定人工智慧用例、服務或產品實施適當層次的管制。預計所有該等影響因素都會發生變化,並須不時進行檢查。
人工智慧管理系統須與組織的過程和整體管理結構相結合。在設計過程、資訊系統和管制措施時,須考慮與人工智慧有關的具體問題。該等管理程序的重要例子包括
  • 確定組織目標、有關各方和組織的參與;
  • 確定組織目標、有關各方和組織的參與;
  • 確定組織目標、有關各方和組織的參與。
  • 為組織提供或開發人工智慧系統的供應商、合作伙伴和第三方的管理過程。
該文件為部署適用管制措施以支持此類過程提供指導。
該文件避免對管理過程提供具體指導。組織可結合公認的框架、其他國際標準和自身經驗,實施適合範圍內特定人工智慧用例、產品或服務的風險管理、生命週期管理和資料品質管理等關鍵過程。
符合該文件要求的組織可證明其在人工智慧系統方面的責任和義務。
該文件中提出要求的順序並不反映其重要性,也不意味着其實施順序。所列項目僅供參考。
與其他管理系統標準的兼容性
該文件採用一致性結構(相同的條款編號、條款標題、文件內容和通用術語及核心定義),以加強管理系統標準之間的符合性。人工智慧管理系統為管理組織內使用人工智慧所產生的問題和風險提供了具體要求。這種通用方法有利於實施和與其他管理系統標準保持一致,例如與以下方面有關的標準:品質、安全、保全及隱私性。

1 範圍

該文件規定了在組織範圍內建立、實施、維護和持續改進人工智慧(AI)管理系統的要求和指引。
該文件係為提供或使用利用人工智慧系統的產品或服務的組織使用。該文件旨在幫助組織負責任地開發、提供或使用人工智慧系統,以實現其目標,並滿足適用的要求、與相關者有關的義務以及相關者的期望。
該文件適用於任何提供或使用利用人工智慧系統的產品或服務的組織,無論其規模、類型和性質如何。

3. 用語及定義

3.1 組織
一個人或一群人,有自己的職能,有責任、權力和關係,以實現其目標(3.6)。
條目註 1: 組織的概念包括但不限於獨資經營者、公司、法團、商號、企業、權力機構、合夥企業、慈善機構或機構或其部分或組合,無論其成立與否,是公營的還是私營的。
條目註 2: 如果組織是更大實體的一部分,「組織」一詞僅指屬於人工智慧管理系統(3.4)範圍內的更大實體的那一部分。

3.2 利益相關者
能够影響某項决定或活動、受其影響或認為自己會受其影響的個人或組織(3.1)。
條目註 1: ISO/IEC 22989:2022,5.19 提供了人工智慧利益相關者的概述。

3.3 最高管理階層
在最高層級指揮和管制一個組織(3.1)的個人或群體。
條目註 1: 最高管理階層有權在組織內部授權和提供資源。
條目註 2: 如果管理系統的範圍(3.4)只涉及組織的一部分,那麼最高管理階層指的是那些指導和管制組織這一部分的人。

3.4 管理系統
組織(3.1)的一套相互關聯或相互作用的要素,用以制定政策(3.5)和目標(3.6),以及實現該等目標的過程(3.8)。
條目註 1: 管理系統可以針對一個領域,也可以針對多個領域。
條目註 2: 管理系統要素包括組織結構、作用和職責、規劃和運作。

3.5 政策
一個組織(3.1)由其最高管理階層(3.3)正式表達的意圖和方向。

3.6 目標
要達到的結果
條目註 1: 目標可以是戰略、戰術或行動目標。
條目註 2: 目標可以涉及不同的學科(如財務、健康與安全、環境)。例如,可以是整個組織的目標,也可以是某個項目、產品或過程的具體目標(3.8)。
條目註 3: 目標可以用其他方式表達,如預期結果、目的、操作標準、人工智慧目標或使用具有類似含義的其他詞語(如目的、目標或具體目標)。
條目註 4: 在人工智慧管理系統(3.4)中,人工智慧目標由組織(3.1)根據人工智慧政策(3.5)制定,以取得具體成果。

3.7 風險
不確定性的影響
條目註 1: 影響是指與預期的偏差—正向的或負向的。
條目註 2: 不確定性是指對某一事件、其後果或可能性的了解或認識不足的狀態,即使是部分不足。
條目註 3: 風險的特徵通常是指潛在事件(如《國際標準化組織指引第 73 號》所定義)和後果(如《國際標準化組織指引》第 73 條所定義),或兩者的結合。
條目註 4: 風險通常以事件後果(包括環境變化)和相關發生可能性(《國際標準化組織指引第 73 號》所定義)的组合来表示。

3.8 過程
一系列相互關聯或相互作用的活動,該等活動使用或轉換輸入以產生結果
條目註 1: 一個過程的結果是稱為產出、產品還是服務,取決於參考文獻的上下文。

3.9 適任性
運用知識和技能達到預期結果的能力。

3.10 文件化資訊
需要一個組織管制和維護的資訊(3.1)及其載體。
條目註 1: 文件化資訊可以是任何格式和介質,也可以來自任何來源。
條目註 2: 文件化資訊可以指
  • 管理系統(3.4),包括相關過程(3.8);
  • 為組織運作而創建的資訊(文件);
  • 取得成果的證據(記錄)。

3.11 績效
可量測之結果
條目註 1: 績效可能對應於定量或定性的發現。
條目註 2: 績效可能對應於作業、過程(3.8)、產品、服務、系統或組織(3.1)的管理。
條目註 3: 在該文件中,績效既指使用人工智慧系統取得的結果,也指與人工智慧管理系統有關的結果(3.4)。該術語的正確解釋從其使用的上下文中可一目了然。

3.12 持續改進
為增強績效(3.11)之重覆作業。

3.13 效果/有效性
實現所規劃的活動及達成所規劃結果的程度。

3.14 要求
需求或期望,明示的、通常隱含的或必須履行者。
條目註 1: 「通常隱含的」是指組織(3.1)和利害相關者(3.2)在習慣上或一般實務上,隱含的需求或期望。
條目註 2: 所指定的要求,是其所明示者,例如已在文件資料(3.10)等中說明的要求。

3.15 符合
滿足任一要求 (3.14)

3.16 不符合
未滿足任一要求(3.14)

3.17 矯正行動
消除不符合(3.16)的原因並防止再發之措施。

3.18 稽核
系統的、獨立的程序(3.8),用於獲取證據並對其進行客觀評估,以確定在多大程度上符合稽核標準。
條目註 1: 稽核可以是內部稽核(第一方),也可以是外部稽核(第二方或第三方),還可以是綜合稽核(結合兩個或多個領域)。
條目註 2: 內部稽核由組織(3.1)本身進行,或由外部機構代表組織進行。
條目註 3: ISO 19011 中定義了 "稽核證據 "和 "稽核標準"。

3.19 量測
量測過程 (3.8) 以確定一個值。

3.20 監測
確定某個系統、某個過程(3.8)或某個活動的狀態
條目註 1: 為確定狀態,可能須檢查、監督或嚴格地觀察。

3.21 管制
<風險> 保持和/或改變風險(3.7)的措施
條目註 1: 管制措施包括但不限於維持和/或改變風險的任何程序、政策、器材、實務或其他條件和/或行動事項。
條目註 2: 管制措施不一定總能產生預期或假定的修改效果。

3.22 治理單位
對組織的績效和符合性負責的個人或團體
條目註 1: 並非所有組織,特別是小型組織,都有一個獨立於最高管理階層的治理單位。
條目註 2: 治理單位可包括但不限於董事會、董事會委員會、監事會、受托人或監督人。

3.23 資訊安全
維護資訊的保密性、完整性和可獲得性
條目註 1: 也可涉及其他屬性,如真實性、責任性、不可否認性和可靠性。

3.24 人工智慧系統衝擊評鑑
一個組織在開發、提供或使用利用人工智慧的產品或服務時,確定、評估和處理對個人、個人群體或兩者以及社會的衝擊之正式且文件化的過程。

3.25 資料品質
資料達到組織在特定前後環節關於資料要求事項的資料特徵。

3.26 適用性聲明
所有必要管制事項(3.21)的文件化以及納入或排除管制措施的理由
條目註 1: 各組織可能不需要附件 A 中列出的所有管制措施,甚至可以超出附件 A 中的清單,由組織自己制定另外的管制措施。
條目註 2: 組織須根據該文件的要求記錄所有已識別的風險。所有已識別的風險和為應對該等風險而制定的風險管理措施(管制措施)須呈現在適用性聲明中。

(未完,見續篇

詳細內容參見標準原文。












2024年2月12日 星期一

ISO/IEC 42001:2023 人工智慧管理系統概述(三之一)

ISO/IEC 42001:2023

Information technology — Artificial intelligence — Management system

資訊技術—人工智慧—管理系統


隨著人工智慧變得越來越流行,對強大的人工智慧(AI)治理架構的需求促使國際標準化組織(ISO)和國際電工委員會(IEC)於2023年12月18日發布了 ISO/IEC 42001:2023 國際標準。該標準提供了一個可驗證的人工智慧管理系統(AIMS)架構。在此架構內,人工智慧系統作為人工智慧保證生態系統的一部分進行開發和部署。

該標準對於在人工智慧工作中尋求驗證的組織來說,這是一個重要的里程碑,它為企業提供了首個獲得人工智慧驗證的途徑,強調了負責任的人工智慧實踐在當今技術環境中日益增長的重要性。該標準還為組織建立了一個架構,以系統地解決和管制與人工智慧開發和部署相關的風險。

隨著人工智慧的應用變得更加廣泛,ISO/IEC 42001:2023 提供了一個可驗證的人工智慧管理系統架構,在該架構內,人工智慧產品可以作為人工智慧驗證系統的一環進行開發。 最終目標是幫助企業和社會從人工智慧中獲得最大利益,並向利害關係人保證他們是負責任地開發系統。

© All Rights reserved. 版權聲明

ISO/IEC 42001:2023 的重要性


人工智慧正在迅速發展,現已被許多行業、產品和服務所採用。不可否認,人工智慧正在並將進一步影響社會和吾人的生活。

由於人工智慧快速進步和日益俱增的影響力,當今社會必須面對信任、倫理和社會問題做出回應和必要對策。人工智慧應當且必須是可靠的、公平的、透明的,從而確立其值得信賴。

該標準提供了人工智慧的定義,即:「獲取、處理、創建和應用以模型形式保存的知識以執行一項或多項給定任務的能力」。此項定義從技術角度來說更加準確,不僅限於人工智慧已經應用的領域,而且尚保留進一步發展的空間。 人工智慧系統的運作方式係基於輸入(包括可由人類或機器提供的預定義規則和資料)工作,以執行特定任務。換句話說,計算機接收來自環境的輸入,然後通過一個或多個模型和底層算法處理輸入來計算和推斷輸出。

隨着人工智慧的能力呈指數級增長,人們對隱私、偏見、不平等、安全和保障深感擔憂。研究人工智慧風險如何影響用戶對於確保這些技術的負責任和可持續展開至關重要。如今,企業比以往任何時候都更需要一個架構來指引企業的人工智慧旅程。國際標準組織制定的全球首個專門人工智慧管理系統 ISO/IEC 42001標準得以處理此項需求。


ISO/IEC 42001:2023 涵蓋哪些內容

該標準規範了人工智慧管理系統的建立、實施、維護和持續改進的要求並提供指引。 ISO/IEC 42001:2023 可以幫助企業組織負責任地開發或使用人工智慧系統,以實現其目標,同時滿足監管要求以及相關單位的義務和期望。

 

ISO/IEC 42001標準的目的

為組織提供其需要的人工智慧全方位指引,包括下列事項:

  • 在人工智慧快速發展時期,負責任地有效使用人工智慧
  • 建立人工智慧架構,旨在涵蓋人工智慧各個方面,及企業可能運作的不同應用
  • 組織得以負責任地管理與人工智慧相關的風險和機會,及有效處理該等風險的綜合性方式
  • 促進人工智慧的可信度、透明度以及合乎倫理的使用
  • 促進人工智慧的創新和增長,同時確保負責任的開發和展開


為什麼要採用 ISO/IEC 42001:2023

ISO/IEC 42001:2023 的出現係協助企業和整個社會以安全地、有效率地使用人工智慧功能與績效而獲取最大價值。 因此,該標準可以幫助組織和使用者: 為人工智慧系統與技術的治理和管理提供指引;
  • 提供一種系統方法處理和在公認的管理系統架構中實施人工智慧相關的挑戰事項;
  • 提高人工智慧應用的品質、安全性、可追溯性、透明度和可靠性;
  • 處理某些應用層面的挑戰,涵蓋倫理、當責制、和資料隱私等領域;
  • 增強對人工智慧系統的信心;
  • 降低人工智慧系統開發成本;
  • 監督人工智慧管理系統的各個方面,維持監管法規的符合性;
  • 滿足客戶、員工和其他利害關係人對人工智慧系統的倫理和負責任使用的期望;
  • 提高組織應用人工智慧系統效率和風險管理過程,從風險評估到有效處理這些風險。


ISO/IEC 42001的主要要求

  • 組織環了解內部和外部因素、利益相關者和人工智慧相關目標
  • 領導力:最高管理階層人員的承諾、當責制和促進人工智慧意識文化
  • 策劃:識別人工智慧系統的機會和風險、定義目標並規劃相關措施
  • 支持:提供必要的資源、能力、意識和溝通
  • 運作實施人工智慧系統、管理資料、監控性能和應對風險
  • 估:監視和量測人工智慧系統績效,根據既定目標執行相關評鑑,執行稽核並審查稽核結果
  • 措施:根據評鑑結果和回饋事項,採取措施改進人工智慧系統(AIS)和人工智慧管理系統(AIMS)

適用標群體


預期適用於開發、展開或使用人工智慧系統的任何規模、行業或地理位置的組織 ;

使用者得以透過多種方式獲得下列利益事項: 
  • 提高人工智慧應用的品質、安全性、可追溯性、透明度和可靠性;
  • 提高效率和人工智慧風險評鑑;
  • 對人工智慧系統獲得更多信任感;
  • 降低人工智慧開發成本;
  • 通過符合日漸更新之法律與法規的實務管制方式、稽核計劃和指導措施,更妥切地遵守法規。
應用人工智慧的群體之基本線在哪裡?廣義來看,所有這些人工智慧的指引內容及事項都有助於全世界各地民眾以倫理和負責任的方式使用人工智慧。


環圈



凡屬於管理系統標準之一,ISO/IEC 42001依循國際標準組織指令的系統方法,圍繞建立、實施、維護和持續改進人工智慧的「計劃—執行—檢核—行動」過程而構建妥當的管理系統。此種系統方法係國際標準界的重要工具,可以從多個方向說明原因如下: 
  • 確保人工智慧得以增加利益價值並予以認可,且實行正確的監督水準。
  • 管理系統使組織能夠按照人工智慧相關技術的指數級發展主動調整其方法。
  • 鼓勵組織定期執行人工智慧風險評鑑,並執行人工智慧風險處理活動。
隨着人工智慧在全球範圍內的快速普及,ISO/IEC 42001預計將追隨其他管理系統標準(例如品質管理 ISO 9001、環境管理 ISO 14001 和資訊安全管理 ISO/IEC 27001)的腳步,成為各類型組織邁向成功的不可或缺標準。


採用人工智慧的利益

  • 負責任的人工智慧:確保以合乎倫理及負責任的方式使用人工智慧;
  • 信任性管理:增強對人工智慧應用的信任;
  • 人工智慧治理:支持遵守法律和監管標準;
  • 實用指導:有效地管理人工智慧的特定風險;
  • 鑑別機會: 在結構化架構内鼓勵創新。

放人工智慧的


當代一個明顯的趨勢,日益壯大的人工智慧與人工智慧系統及其應用將隨着時間的推移不斷改進和進步。與此同時,人工智慧管理將需要適應這些變化,重點關注為商業世界維護和加速人工智慧系統的不同方式。吾人發現自己正處於十字路口,需要採取審慎的方法。吾人如何充分利用人工智慧機會的潛力且避免落入潛在風險的陷阱?

只有在堅定執行有效的治理行為,才能在變化多端的世界裡遊刃有餘地尋求機會和風險之間的平衡運作。這就是為什麼企業和產業界領導階層必須採納ISO/IEC 42001自我訓練,利用人工智慧系統爭取利益最大化,妥善運用人工智慧管理系統為基礎,在各種應用程序中依循倫理地、安全地和前瞻性地使用人工智慧奠定基礎。該等做法須視為一種平衡性行為,更清楚地瞭解此種平衡作用可以幫助吾人克服集體人工智慧之旅中的陷阱。

人工智慧系統驗證過程

  • 了解標準:了解ISO/IEC 42001標準及相關要求
  • 聯繫驗證機構:討論及確認預期驗證目標及標準,及預估驗證時期,由驗證機構提供詳細的建議和報價
  • 適任性:找出員工在技能和適任性方面可能存在的差距。必要時參加外界提供該標準的訓練和研討會
  • 差距分析: 參考擬驗證標準找出組織既存的薄弱環節
    • 第一階段:確認已納入該標準且順利運作
    • 第二階段:確認組織已全面實施該標準
  • 驗證:在組織向外界宣告成功實施之前,須獲得驗證機構頒發人工智慧系統驗證範圍的證書。組織的利益相關者可以透過驗證機構公告週知的客戶登錄系統查看組織的人工智慧系統驗證範圍
  • 持續改進:驗證機構依驗證要求執行定期追蹤稽核,幫助組織維護和改進人工智慧管理系統

註:此文並未涵蓋該文件全部事項,相關內容務須參閱各項文獻原本及最新版次。此處係閱讀隨筆,僅供個人學習,非供印刷或潛在意圖出版。

詳細內容參見標準原文。

(未完,見續篇