顯示具有 治理 標籤的文章。 顯示所有文章
顯示具有 治理 標籤的文章。 顯示所有文章

2024年5月14日 星期二

資訊技術使用人工智慧的治理衍生效應(六之六)

ISO/IEC 38507:2022
資訊技術 — 資訊技術治理 — 組織使用人工智慧的治理衍生效應(續)

附錄A:組織做出決策的治理

治理標準綜覽

共通

ISO/IEC 37000敘述組織治理事宜,組織經由指導、視察與當責而達成既定目的。基本事項為:
  • 設定目的、使命、願景、組織風氣、組織價值觀及文化以指導組織
  • 掌舵策略及適當平衡資源以實現這一目的
  • 視察組織的績效,確保合規性和可行性。
  • 和利益相關者參與並對其當責
在資訊技術領域,ISO/IEC 38500定義「治理」一詞為:「指導與管制的系統」,由組織在三個主要任務方向使用資訊技術:評估、指導、監督。

© All Rights reserved. 版權聲明

指導

ISO/IEC 38500提供指引給治理機構指派策略與政策責任,以設定資訊技術投資方向及所須達成目的。亦須激勵組織內資訊技術的良好治理,指導提出建議供核准處理已知需求。見圖A.1。

當責

組織的治理機構負責為決策、措施和整個組織間互動,及對利益相關者當責,此種當責不得轉嫁。

組織運用人員、流程及技術以達成目的,且不論利用哪些資源,治理機構是且僅是組織內上述成果的當責單位。例如:治理機構既負責且當責於組織成員誤用資訊技術的設備,即使因為組織內的指引不足、劣等訓練、視察失常、強制力道微弱,因而未能防範上述誤用發生。同樣地,使用人工智慧時的治理不足的風險亦歸屬治理機構。

所謂「可接受地使用人工智慧」係由組織的利益相關者所決定,且依組織營運情況有多種變動式前後環節,而「可接受地使用」端視某種前後環節而有所變化。正是通過利益相關者的參與過程,組織才能理解「可接受地使用」意味着什麼,並將該等要求轉化為組織政策。該等政策將不僅反映適用的法律要求,而且反映社會的期望。

利益相關者的參與係組織治理的關鍵原則,故須組織合理地穩定參與利益相關者以確保組織長期地創造利潤,且以利益相關者可以接受方式如此地做下去。此等關係或許須由組織營運相關的法律或道德義務、或是某種準則或社會、經濟與環境期待之行為所圍繞。

視察

ISO/IEC 37000, 第6.4.1節敘述治理機構須視察組織績效以確保足以達到組織之治理機構期許和預期成就的,倫理行為及合規性義務。

組織政策反應適用的法律及社會義務,亦包含配合及驅動組織達成目標的政策。為保持對利益相關者當責,治理機構採用組織政策的合規性為工具而保持有效地管制組織。

治理機構亦須負責決定組織為達成目標須準備面對的風險之性質與規模。一旦決定了風險偏好,治理機構視察合宜的管理風險方式及處理風險的必要方式以確保未逾越風險偏好。

良好視察可以確保治理機構提供合適的組織具備相當容量執行其任務、保護組織和利益相關者的利益,並突出機會事項。

管理決策的治理機構指引

治理機構為組織設立目的和其它參數且為整個組織當責。治理機構決定須設立哪些參數,因為該等參數因組織不同而變動不居。典型的參數如下所述(型式上或非型式上):
  • 策略決定包括擬服務的市場及提供何種產品與服務
  • 利益相關者的參與以設立投資、期待的行為、文化與價值觀
  • 風險偏好羅列組織追求既定目的所願意承擔的風險之性質與限度
管理階層的角色係有效果及有效率地於上述參數事項內交付組織的目標。

治理和管理角色的差異和明確性對於組織的成功至關重要。各該等角色涉及不同的職責,需要不同的技能。將之分離賦予各自明確界定的自由在創新性和企業家精神。角色之間的界面為保護組織帶來了必要的管制。例如,如果管理階層看到新的機會或風險超出了戰略或風險偏好,管理階層將提議改變相關的參數。然後,治理機構將決定改變該等參數是否符合本組織及其利益相關者的最大利益。

雖然該等角色中的每一個角色都是不同的,但如果角色之間不存在利益衝突,而且該人意識到每個角色所承擔的各自責任,則同一個人可以履行恰當的角色。例如:執行經理也可以是治理機構的成員。然而,重要的是,必須扮演著不同角色,而且該人必須認識到在任何時候其正在執行的角色。

資料使用的治理

ISO/IEC 38505-1第5節突出與治理有關的資料相關面向如下列:
  • 價值觀:資料係資訊使用時的原始材料,某些資料係潛在地使用不著,而某些資料卻對組織異常有價值。只是往往未認識該種價值,直到組織會用到它們時才意識到,因此,所有資料皆係治理機構關注的對象且最終亦為當責者。「價值觀」在此處亦包括資料的品質和數量、其時間線、前後環節(概略說來亦皆是資料),及儲存、維護、使用及銷毀的成本。
  • 風險:不同類別的資料和處理方式帶來不同層次的風險,治理機構須瞭解資料的風險以及如何指示管理人員管理該等風險。該等風險不僅增加資料洩露的風險,而且還會昇高因為資料的誤用以及由此產生的任何聲譽風險。
  • 限制:大多數資料都帶有關於其使用的限制。其中一些是通過法律、規章或合約的義務從外部施加在組織上的,包括隱私權、版權、商業利益等問題。其他考慮因素包括道德或社會義務,或限制資料使用的組織政策。在組織使用資料時,需要制訂策略和政策以考慮該等限制因素。
詳細內容參見標準原文。

本篇竟

2024年5月12日 星期日

資訊技術使用人工智慧的治理衍生效應(五之六)

ISO/IEC 38507:2022
資訊技術 — 資訊技術治理 — 組織使用人工智慧的治理衍生效應(續)

風險

風險偏好與管理

組織治理(無論實施方式)包括定義組織目的和目標及如何達成的策略。考慮到組織的該等策略,組織的治理機構決定風險偏好,尋求達成目標。依循該等風險偏好並支援治理機構於風險偏好事項做出決策,組織建立風險管理過程。

風險管理涉及為組織組合相關資訊以做出決策及處理風險,而治理機構須定義整體風險偏好,和組織目標,委派組織各管理階層做出決策過程關於識別、評鑑和對待風險。不同的治理角色和管理階層在處理風險之討論如下:
  • 本文件敘述為組織添加的治理考量,如:開發、採購或使用人工智慧系統。此等考量包括新的機會、風險偏好的潛在變化及新的治理政策,以確保組織負責任地使用人工智慧系統。
  • ISO/IEC 23894:2023 係組織導入人工智慧系統須考量新增風險所執行管理過程。(參見另一專文介紹)
對待風險涉及兩個方面,一方面治理機構決定及當責風險偏好,另一方面管理階層的工作在維持風險於已同意的風險偏好界限內。


檢討既有風險管理過程時須特地檢查涉及做出決策、使用資料、文化與價值觀以及合規性等的風險,是否皆明確瞭解並加以管理。經此方式,組織因為導入人工智慧系統而增加風險的前後環節方得以釐清。只要識別出該等風險,治理機構得以佔據較佳位置做以下事情:
  • 確保妥善考慮風險以設定組織目標;
  • 瞭解追求組織目標時所面臨的風險;
  • 確保已經實施管理該等風險的系統且有效地運作;
  • 確保該等風險未逾越組織的風險偏好;
  • 確保有效地傳達該等風險的資訊及管理事項,參見ISO 31000第5.2節。
風險管理
風險管理積澱在組織活動內,儘管人工智慧系統可以為組織帶來利益,組織目標關於良好治理做出決策、使用資料、以及組織期望的文化和價值觀,仍須更新以考慮使用人工智慧衍生的衝擊。

組織努力地保護其原則與價值觀、其身分及名譽、其利益相關者、其市場、其環境、與保護其得能自由採取措施,邁向成功。

為因應人工智慧引致的風險,治理機構須設立:
  • 適當的內部規則與政策;
  • 適當的特定次級組織、過程與工具,經過設計,確保或強化價值觀、原則及內部控制,供做良好治理的基礎。

此外,治理機構須確保組織的承包機構及外包機構遵循相同的實務規範及政策。

該等措施提供任何利益相關者協助識別與報告不符合之人工智慧系統的相關行為,得以做出有意義的及合宜的回應。此等事項特別重要,尤其在涉及複雜供應鏈時,凡是名譽、財務或其他形式的風險可能疊加出現在主力協力商或大宗物料採購者。在不同組織的風險偏好發揮作用的情況下,該組織須清楚瞭解在合約關係中使用人工智慧的影響。

圖4展示組織目標、風險來源、管制範例:
  • 組織追求中的目標,如:保護自身名譽;
  • 因為使用人工智慧而帶給組織新增的風險來源;
  • 某些技術上和組織上管制可以用來對應該等風險。


目標

組織欲經由風險管理過程所保護的目標,不僅包括資產保護,如:資料、資訊系統、應用編碼、演算法及設備,亦包括關懷責任、文化與價值觀、自身名譽及策略。參見圖4的組織目標示例。
  • 當責與負責:治理機構須為組織的內部和外部使用人工智慧之當責與負責的單位
  • 名譽和信任:此項考慮的風險視角是組織本身。然而,既然組織並非孤立存在狀態,因此宜考慮其利益相關者及營運環境。組織面臨風險的關鍵考慮因素須包括影響客戶和供應商等利益相關者的風險的後果及可能性。
  • 照顧責任:組織對內部和外部利益相關者負有責任並可能承擔法律責任。此項可能涉及所有利益相關者的福祉和保護其權利的義務,此處須考慮依照管轄區域的法律或法規要求事項的後果;利益相關者的權利如:獲知重要財務、健康或居住服務資料、人權事項如自由居住或個人隱私權。在照顧責任存在重大風險的情況下,治理機構須要求額外的組織管制,以有效地處理此類風險,並確保該等風險莫超出組織的風險偏好。
  • 安全:如果使用人工智慧系統存在重大的實體或情感類傷害風險,該組織宜特別警惕該等傷害的性質和後果。必要時,組織宜建立適當的不間斷的安全管理制度,並考慮使用人工智慧如何得以減少人類曝露於危險性活動。
  • 保全與私密性:組織須確保其營運安全,特別是在需要保密和個人隱私重要的地方。該等目標不會因使用人工智慧而改變,特別是考慮到人工智慧系統能夠從資料模式推斷出新的資訊。
  • 資料:資料是組織的重要資源,對其保護和維持完整性須為組織的目標。
  • 透明:組織決策的透明度可能是治理機構樂於維持的目標。利益相關者希望至少瞭解一些不明顯的輸入和變數,透過該等輸入和變數得以瞭解組織如何做出決定,無須計較做出該決定時使用了多少自動化。

參見相關標準ISO/IEC TR 24368(參見另一專文介紹), ISO/IEC TR 24028, 及ISO TS 31050 (參見另文介紹)對上述目標的深入探討。

風險來源

該組織須根據適用人工智慧系統的領域的範圍和性質以及部署的人工智慧系統的類型,期待更多的風險來源。人工智慧的某些用途將得到限縮和控制,從而給組織帶來很小風險、或無額外風險。其他使用途徑將組織曝露在前所未有的重大風險。

此外,如ISO/IEC 23894所示,尚未成熟的技術,如:開發和應用人工智慧系統時採用的技術,將給組織帶來未知風險,或者難以評鑑。另一方面,成熟的技術涵蓋較大量變動式經驗獲得的資料,因而較易辨認和評鑑風險。衡量人工智慧系統成熟度的一套「準備程度」特徵表達可用於評鑑和監測風險。

尚無法將資產、價值和目標直接映射到風險來源或風險管制,因為該等項目中的任何一項的作用都可能影響到任何其他項目。

圖4所示的風險來源示例係因使用人工智慧有關的風險來源,儘管該等來源亦可適用於許多其他技術或過程。按照所使用的人工智慧系統的範圍和性質,組織宜期待更多的風險來源。 示例如下:
  • 資料來源供應:因為機器學習系統的模型建立和訓練需要使用資料,則資料的品質與適宜性極為關鍵,須配合預期使用及系統目標一致,調整過的資料可以容許由於模型中毒和錯誤分類引致的對抗式攻擊。
  • 規格未詳盡:往昔軟體開發、問題性質與解決方式係緊密連結,全因人類參與其中運用兩者兼容的方式。可是人工智慧系統的解決方式可能完全不同於往昔初始設計開發和安裝妥當的系統,則準確性、清晰性、問題規格的範圍、系統要求、設計系統目標、涉及的內化式行為界限皆會是重要角色。
  • 價值鏈:供應與分配人工智慧系統會包括由組織外部使用人工智慧系統的風險,故須明確定義當責性,且由價值鏈中不同參與者協調同意。
  • 非期待偏置:人工智慧系統使用的演算法、訓練與測試資料、及機器學習模型等係竭力對應及預期實際外界狀況,按各自的性質,此等系統僅為一小部份的抽樣觀點,可能產出物對應到樣本而非實際外界狀況,從而引致非期待偏差。參見ISO/IEC TR 24027
  • 缺乏機器學習的解釋性:人工智慧系統的複雜性將引致風險,使得很難解釋為什麼人工智慧系統得出某個特定結論。此點不同於往昔資訊技術系統,因為由人類定義某個演算法程序而得出答案。一個人類可以受到質疑、經過複檢、按其位置和名譽進行評鑑、並須當責,並對各種編碼予以測試,以確保它產生預測的答覆。
  • 缺乏人工智慧專業能力:使用人工智慧需要的係與往昔開發軟體的不同技巧,儘管仍需該等技巧,新增技巧包括瞭解資料分析與統計學、建模化與演算法設計及測試、以及人類技能如倫理和同理心。
  • 網路安全威脅:實施某些人工智慧系統對網路資安威脅係脆弱又不易辨別,因其幾乎未留下可識別的痕跡。
與使用人工智慧相關的其它風險來源及對人類的衝擊,如:
  • 淘空技能:漸增地使用人工智慧於例行性做出決策即代表人類漸漸減少累積經驗,人員經驗減少(「功能萎縮」)將會移除相關機會:人類技能強化、做出決策能力、專業能力。此類淘空現象對人類技巧開發是組織的風險,亦是社會的共通風險。
  • 合約問題:組織須確保使用人工智慧時各項適用的合約、法律及良好實務等要求仍然有效。若干種人工智慧應用,系統從寄生的組織獲得的資料與實務中學習,由初期及投入使用的期間皆同,由此而得的人工智慧系統將影響組織,是否按照適用的合約、法律及良好實務等一貫地提供服務。
  • 環境問題:治理機構須考慮使用人工智慧訓練與資料處理時消耗能源導致二氧化碳排放量增加的風險;亦須考慮使用人工智慧雲端服務及端點設備的硬體運行引起的污染及資源折舊與加速報廢等風險。
  • 個人自主能力:人工智慧的使用愈來愈能決定個人在新聞、娛樂、互動、產品和服務等方面遇到的選擇範圍。此等決定的頻率和普遍性不斷增加,意味着治理機構須考慮使用人工智慧對個人和社區的人類自主能力的衝擊。
  • 錯失機會:治理機構有時過於保守,無法利用新的機會。如果治理機構沒有利用人工智慧提供的機會,組織就會面臨來自確實利用此種機會的組織之日益激烈的競爭。
管制

管制的目的是維持或修改風險,使它們保持在組織的風險偏好範圍內。此類管制可以經由管理結構、審查委員會或管理程序實施的組織管制,也可以是通過資料庫訪問限制、軟體編碼或資料過濾等措施實施的技術管制。

圖4所示的管制僅代表小部份人工智慧系統有關的例子。

圖4所示的風險管制例子:
  • 適用性:對人工智慧系統的描述,包括其算法、資料和模型,應足夠透明,以確保其適用於預定用途。
  • 倫理審查委員會:對於組織確定了高風險、高利益相關者衝擊或其他閾值的應用程序,常見的風險管制方法是使用倫理審查委員會,以確保與組織的文化和價值觀保持一致。
  • 管理過程:設計和實施管理流程是滿足品質、安全性、隱私和合規性等要求的常見做法。可以針對與人工智慧系統相關的要求建立類似的流程。
  • 技術管制:軟體內建的技術管制可以協助處理某些風險的實施管制;參見ISO/IEC TR 24029-1
  • 教育和訓練:參與使用人工智慧所有階段的每個人都應接受適當的訓練,以確保各人獲得和部署必要的技能。
詳細內容參見標準原文。

(未完,見續篇

2024年5月9日 星期四

資訊技術使用人工智慧的治理衍生效應(四之六)

ISO/IEC 38507:2022
資訊技術 — 資訊技術治理 — 組織使用人工智慧的治理衍生效應(續)

文化和價值觀

治理機構負責定義組織希冀的文化和價值,並照顧到利益相關者、市場及法規機關,以及社會期許組織營運的變化和衝擊。治理機構須警惕日益浮現中的行為指引和國際標準,如:國際人權宣言、約翰尼斯堡永續發展宣言,及其他機構所提供等。參見ISO 26000, 第3.3.2節的相關事項。

組織的任何決定或措施須與其文化和價值觀一致,只不過組織的眾多文化和價值觀係含藏在員工行為和程序之中,一個人工智慧系統不能等同於人類理解的前後環節、一般常識、道德或知識所引導而成的輸出,反而是一個人工智慧系統係基於多模式、多項演算法、或訓練資料而完成足以比擬的結果。

為了上述理由,治理機構應明確其文化和價值觀,並擁有適當的治理機制和政策,以確保該等人工智慧系統的行為能夠受到監督,且在需要時加以矯正。在某些情況下,人工智慧系統的範圍和衝擊須受到限制,並須通過人為行動加以補充,以便能夠確保治理的政策。如何做到這一點將視情況而異。同等作用情況,一個人工智慧系統可以協助識別人類做出決策存在缺陷之處,如:不恰當的偏置或歧見,或理由不足,或排除原因不明等;從而提供組織的深刻意見,有助治理機構隨後可以處理。此種方式會給組織治理帶來未來的挑戰。


根據擬使用的人工智慧系統的性質和宗旨,組織可能需要明確監督該等系統,以確保它們符合組織的文化和價值觀。 治理機構可以採取「文化和價值委員會」或「倫理審查委員會」之類的形式。需視察事項可以包括當批准敏感性或高風險的人工智慧系統專案,或須符合某些逐級昇高的準則之前需要進行審查。組織在該方面的其他政策可能需要在人工智慧系統內使用技術管制,以協助符合該等政策。關於使用人工智慧有關的倫理和社會關切的更多資訊,參見ISO/IEC TR 24368(參見另一專文介紹)。

合規性

合規性義務

為確保組織達到合規性義務,組織須建立持續合規過程,若須有效果,合規過程係搭配組織領導力並融入組織文化。如ISO 37301般的符合性管理系統說明該等要求,協助組織展現承諾達到係稱義務,並符合利益相關者期待。

治理機構須尋求確保作用,由管理階層形塑及維持組織使用的任何人工智慧系統達到組織的合規性義務,避免違反合規性。違反的例子如:定價機制觸犯反托辣斯法律要求,或者用於訓練的資料觸犯公民權,或帶有歧視性。

合規性係關注到營運人員的行為。人工智慧可以減少某些情況時人類行為的作用,從而減少由於人類行為不合規引起的風險。因此,人類因素便被拉高或轉向承擔設計、開發和實施人工智慧系統的人們。該項轉變在認知訓練和監督方面擺出全新的挑戰。

在組織前後環節與合規性義務裡檢查人工智慧的角色,治理機構須注意下列事項:
  • 關於人工智慧的使用與衝擊之於利益相關者期待,尤其是確保遵循既有政策及合規義務;
  • 關於組織內使用人工智慧在文化上的衍生效應,如:人工智慧系統漸漸拉高複雜性,使得人員只好假設該系統運作無誤。組織須建立適宜過程以確證某個人工智慧系統的產出;
  • 人工智慧在組織的使用範疇;
  • 人工智慧對組織的合規義務之衝擊;
  • 因使用人工智慧而須變更組織的風險偏好;
  • 既有的組織視察過程、結構與管制用於處理人工智慧特定面向的方式;
  • 使用人工智慧之於組織當責性架構的衝擊;
  • 須評鑑既有的組織合規管理系統以面對使用人工智慧衍生效應,如:設計上和解決方案可能難以解釋或者須經常變更等;可以包括諸如:擴充合規政策、或擴大定期風險評鑑;
  • 個別人員是否受到使用人工智慧系統的設定限制或由之產出個人資料的影響,如:法律或組織政策。
合規性管理
採用合規管理標準得以使組織以綜合方式在其管理系統上覆蓋具體的管理要求,例如安全性、品質和隱私。如此得以在管理系統中增加因使用人工智慧發生的附加合規措施更加容易。

合規管理層級須特別考慮下列事項:
  • 擴展合規性流程以考慮人工智慧系統的速度、範圍或精巧性,如:增加監督層次或頻率
  • 要求由人類重新評估人工智慧系統做出的決定
  • 增加管制以確保人工智慧系統維持本來要求的合規狀況
  • 確保建構模型或供訓練用資料係符合政策
  • 使用人工智慧監督其他人工智慧系統,及可要求另加監督或警示。
組織須評鑑任何擬使用到合規管理系統的人工智慧系統之衝擊,在管理系統可能使用人工智慧須納入此項評估。

詳細內容參見標準原文。

(未完,待續)

2024年5月7日 星期二

資訊技術使用人工智慧的治理衍生效應(三之六)

ISO/IEC 38507:2022
資訊技術 — 資訊技術治理 — 組織使用人工智慧的治理衍生效應(續)

使用人工智慧的益處
治理機構在考慮展開人工智慧以追求組織特定機會時,須為已經識別出來,包括組織未來成長或較佳地達到組織目的和目標。該種情況,治理機構須衡量機會和風險及其他使用的衍生效應,須確保存在視察機制並運作之,以檢討展開情況符合組織策略方向、目的和價值。人工智慧可以用於滿足組織目標及創造價值,獲得下列結果:
  • 營運成本降低;
  • 新產品和服務以加快既有商業模式崩解;或
  • 組織轉換,如公共機構法人或非盈利機構。
組織潛在地已經在例行營運時使用人工智慧。舉例言之:
  • 採用衛星導航系統辨識最有效率的卡車路徑;
  • 大部份網路搜尋以人工智慧回覆提問、找類似圖片或文件;
  • 生產力應用以人工智慧提示某張投影片設計的較佳演示,或是改進某份文件的文法;
更多的應用可以在各個領域找到案例,如:農業、國防、教育、保健、製造、運輸等;或是運用不同的展開模式,如:雲端服務或現場系統、網路結合實物系統。在ISO/IEC TR 24030收集甚多實務運用及展開模式。
人工智慧可以做的事項,如:
  • 改變產品、過程及服務的性質;
  • 自動化收集回饋、訴怨、翻譯、檢討或資料分析,而加值性活動保留給人類執行、如:匯整做出結論、做成決定;
  • 增進顧客服務、生產力及產品品質;
  • 改變與顧客及供應商的關係,由此亦即員工與顧客、供應鏈之間的關係,由於使用智慧代理工具,如:聊天機器人,以利收集相關資訊、揀選及轉送要求內容,協助處理產品、服務或收費等問題,或解決異議。
  • 增進製造與農業的作業效率,從「自動化協助」移向「完全自動化」。
  • 從使用的語言樣本中識別說話者最可能的意向
  • 由類似疾病大規模傳播的歷史資料預測當前疾病的演變方向
  • 經由檢驗細胞而提供癌症現況的建議;
  • 建議核准或拒絕某項貸款。
組織如此地運用人工智慧可以帶來利益,但也可能面對新的或尖銳的挑戰,如:新增的風險或偏置,參見該標準另節使用人工智慧的詳細討論。


搭配人工智慧可以讓組織重塑其適用該產業的策略及應用模式,可以去改變如何為利益相關者創造價值,及如何擷取該等價值。使用人工智慧亦可為勞動階層創造機遇,如:經由使用人工智慧動員較大的創造力、增強競爭力及不同工作機會,從而消除重複的、瑣碎的或不安全的任務。人工智慧技術以此種途徑可以為組織帶來豐碩的轉換契機。治理機構須學習人工智慧為組織展現的機會,適當時,促成採用。

當使用人工智慧處理該等任務的過程重任時,組織可以專注在為任務的努力與資源上,因為是人類的努力方得以增加價值,而非人工智慧的自動化或重複性行為。

使用人工智慧的限制
組織可以輕易鑑別使用人工智慧的利益,治理機構須瞭解當組織使用它時所帶來的限制與義務。為了適當地治理該等限制與義務,組織須採取以下措施:
增加視察符合性:若人工智慧缺乏合宜視察,治理機構須瞭解組織內使用人工智慧的限制與義務,可能難以解釋或與組織政策衝突。
處理使用範圍:確保自動化範圍受到治理機構的合宜視察,且由獲得合宜授權及技巧人員恰當地實施。治理機構須確保維持住必要的權力、責任及當責性,且該種自動化的後果須接受檢查並予以瞭解,方得實施。
評鑑與處理對利益相關者的衝擊:當某些決定對利益相關者產生負面衝擊時,如:銀行拒絕某個顧客的貸款申請等;組織須確保該項衝擊不至於因為使用人工智慧而惡化。現存的風險與衝擊評鑑須配合對應過程,如:保護合法權利、確保法律的確定性等,須予以維持其有效性
使用該等技術時須決定法律要求的義務:愈來愈多情形當使用人工智慧及相關解決方案時,如:臉孔辨識或自動化駕駛汽車,受到各方挑戰且可能引致新的法律要求。治理機構須展示如何符合該等義務且遵循相關要求,當要求時並合宜地解釋。
使用人工智慧配合組織的目標:創新式使用新技術對大多數組織而言係攸關生存能力及健康性,在此種情形下,治理制度亦鼓勵此類創新。不是每個專案都是策略性非常重要,如:削減成本專案;但總體而言,使用人工智慧可協助組織觸及目標。
使用人工智慧配合組織的文化與價值:人工智慧系統推薦某些決定須配合組織的政策、期盼(亦包括使用時的衝擊)與倫理考量;
確保解決問題適當考慮到前後關係: 組織須確保資料中的前後關係要素不可或缺,方得以從本質上理解行為、價值及文化,乃可使用該等資料解答問題;
組織使用人工智慧可能帶來新增風險應予檢查:檢查組織的目的與目標,考慮識別出風險的可能來源;若決定使用人工智慧,配合對抗風險的因應措施,組織須駐留在既定的風險偏好界限內;

使用人工智慧的組織,暨適用組織及其利害相關者的其他事項,除了上述各項限制,人工智慧系統亦有其技術限制,治理機構須從管理階層獲得保證,係稱限制受到妥善管理。

處理人工智慧使用的政策
一般規定
人工智慧系統利用資料建立模型及做出預測,順帶可以潛在地自動做決定和措施。與人類資源、過程和技術所做的事相同,對前述的決定和措施係由治理機構當責,某些使用人工智慧而產出未符合政策之情況,或做出的結果並非既定政策預見者。

某組織適用的指示與管制不使用人工智慧的規格與授權,很可能不適用另一個使用人工智慧的組織。

持續的有效性治理係要求檢討及潛在地增強現有治理機制與管制,以確保該機制與管制的強固的、清楚的及適用於涵蓋新增的治理考量,亦包括管理階層的指示,係因人工智慧系統帶給組織和其利害相關者。

治理機構與經理階層須進一步連結可能因使用人工智慧系統而衝擊到的利害相關者,如:人員及其代表,牽涉組織實施人工智慧系統的整個過程,經由資訊、諮詢與參與過程。

此小節的指引內容係供治理機構瞭解及更新須考量的政策,以降低發生組織使用人工智慧系統可以避免或非預期後果。它不應也不是可以妥協的。

參考ISO/IEC TR 38502, 第4.1.3節,經理階層負責確保達到組織在既有之治理機構制訂的策略及政策。治理的任務是在治理機構與經理階層密切合作情形下順利達成,參見圖3。
圖3 使用人工智慧的治理衍生效應(參見ISO/IEC 38500的圖1)

圖3係基於ISO/IEC 38500圖1的資訊技術治理模式。

無論使用任意技術,治理機構須設置與視察達到的成果與原則的一致性。該等原則係內部制定或外部組織指定之。

技術創新速度及超越法律要求宜提醒組織在使用人工智慧方面主動維持一組原則,並確保當組織使用人工智慧時仍然適用。

治理視察人工智慧
治理機構須確保設置人工智慧時亦安排視察機制,適宜於組織使用人工智慧時的相關風險。

奠基在組織政策的治理視察須識別責任配置線中個別與整合的當責性。好的治理須奠基在系統應用及前後環節上的通用瞭解,另參見ISO/IEC 23894, 第6.3.3節,ISO 31000, 第6.3.3節。

治理機構須確保治理視察人工智慧包含下列事項:
  • 具備政策確保適當的使用人工智慧
  • 責任、責任配置線、當責、授權及潛在地委任授權皆已明確訂定,且由組織及對應者雙方同意,對應者既可以是組織內部,亦可以是價值鏈中的相關者。
  • 使用人工智慧時須有足可勝任的人員視察
  • 任何人員使用人工智慧或負責人工智慧的使用
    • 具備適當的瞭解所使用的人工智慧系統
    • 適當地知情及受過訓練,包括如何及向誰提出關切事項
    • 獲得授權以做出決定,或知道轉介至可以做出決定的人,並知道誰應回報
    • 擁有足夠管制人工智慧系統,包括可能的話必須要介入。

做出決策的治理
做出決策的治理是組織全部治理的一部份。

權力和責任逐級分散給整個組織的人員,以便分散所做工作和做出決定的負擔。無論該等授權或責任在何處,治理機構對所做的一切工作和所做的決定都當責。其中一些決定和一些工作可以愈來愈多地由人工智慧系統做出和執行,但治理委員會仍然對人類的決定和工作當責。

治理機構須監督決定的種類及自動化系統和直接管理產生的決定和產出的類型,以確保通過適當的管制,將該等系統配置為在可接受邊界內運作。該等管制措施須使治理機構適當瞭解係稱決定是否符合組織政策,配合上述事項亦須提供任何例外情形。

治理機構應確保將對該等管制的積極視察委派給一名具備適宜資源的工作人員,該工作人員具備授權對識別出來的問題做出或促成反應。由人工智慧系統提供的自動化決策的使用不會改變治理機構對該等決策的當責,亦不改變係稱授權人員的當責。
 
組織內做出決策的相關要件如示:
與目標一致性:決策須與組織的目標一致,保持在組織所能提供的資源、已定義的風險及其他管制事項內;
負責層級:確保做出決策的層級配合所賦予的權力及責任而聯結的決策係良好治理的關鍵要求。定義出可能的決策範圍和衝擊而配合前述安排的責任層級,是授權所屬人員適宜地行動之必要項目,從而造成整個組織更為積極進取。由人工智慧系統在措施與決策時須明確定義人類的當責性,並委派具有適當授權及工具的所屬人員,以執行受委派的任務,如:可見性、視察、品質管制等;當出現問題時並採取矯正措施。
做出決策的適任能力:做出決策者須具有適當技術及受過訓練以對其負責事項做出決策;須實施管制以確保人工智慧系統係適合於受到指派的任務,參見ISO/IEC 24028。
做出決策的過程:利害相關者愈來愈強調做出決策的透明度,其中包括報告的要求事項、策略指示及內外部使用者的交互作用。加強透明度伴隨發生的是昇高參與及關切做出決策的行為。因此做出決策的過程及合宜地降低不良決策後果的相關對應措施,係重要的治理機制,且隨著漸增的人工智慧系統而愈顯重要。
做出決策的視察:治理機構須確保具備合宜視察,以實施管制而確保有效的做出決策的有效能力,並有合宜可見度既符合組織政策做出決策與特例事宜處理。做出決策的符合性特例事宜,須決定是否需要增加透明度及當責制。須向所有利益相關者提供合宜手段,以查明和報告不符合規定的行為,或一般的決策結果,並給予有意義、及時和充分的回應。

資料使用的治理
某些人工智慧系統倚賴資料以建立和訓練某個模型,因此資料治理是人工智慧回應的關鍵。治理機構須確保初期階段便具備合宜的治理和管理,對應該等資料的妥切運用及敏感資料受到保護和保全(參見ISO/IEC 38505-1)。此處包括如:組織如何符合其義務的文件化、涉及採購及銷售、私密性及保全、資料保存期和銷毀、視察自身的資料管理政策。

加強人工智慧系統的資料治理包括下列考慮事項:
  • 人工智慧系統的相關設計選項;
  • 資料收集;
  • 相關資料準備處理的運作,如:予以注解、予以標籤、清理、豐富化及聚合化;
  • 提出相關假設,須注意資料係用於衡量和代表之資訊;
  • 事先評鑑資料的可取得性、品質、數量和適宜性;
  • 檢查可能存在的偏置;
  • 查明任何可能的資料差距或短缺處,以及如何處理該等差距和短缺處。
人工智慧系統(特別是涉及機器學習)與其他資訊技術系統的主要差別是特別倚重資料推論以產出信賴性層級的結果。次要差別是具備和使用訓練資料,且依其品質從而增進或拉低衍生結果的品質。此點不同於軟體開發係依賴人類按照既定邏輯步驟構思與撰寫程序以產出結果。前述的資料導向解答問題和適用性系統呈現彼此系統之間的差別。既然資料品質是人工智慧系統績效的關鍵,治理機構須從管理階層尋求保證為了預期使用的人工智慧系統而自始便必須要求資料品質。

人工智慧系統使用歷史性資料予以訓練會因應用情形而有下列後果:
  • 重複以前的錯誤;
  • 做出「不受良心約束的」決策,係因為資料中未紀錄後果;
  • 根據不同於人類理解的方式之新穎組合情況或資料而做出決策,例:串聯顯然非相關的不同資料集;
  • 監督與行為的資訊非屬自願揭示的必要內容。
上述結果往往稱為誤解或錯誤,皆因引入不完整、帶有錯誤的或不合適的資料。有時候稱為(但不一定就是)「人工智慧偏置」。只不過,偏置是人類引入或給出的限制,而非人工智慧系統。

在人工智慧系統中使用資料時,須檢討資料使用和資料管理做法的既有管理方式。此外,對於共享的人工智慧系統,如:產業分析等,可要求額外的治理政策和管理管制。
 
其他技術資產,如:演算法、神經網路及自然語言處理系統等,在既有的組織和治理政策內亦可以要求該等強化措施。

組織須考慮採用ISO/IEC 38505-1提供關於使用人工智慧的治理內容,用於資料使用:
價值:資料品質與數量,各自的及時性、前後環節及使用衍生的成本;
風險:資料保全、錯誤使用及私密性、以及不槓桿運用資料涉及的競爭風險;
限制:法律要求、合約義務、著作權或商業利益。

參見附錄A.3資料使用治理。

資料及其被各組織使用是所有組織及其利益相關者日益重要的問題。根據ISO/IEC 38505-1概述的治理原則、模式和資料等特定方面,治理機構須採取措施,確保有效地治理、投資於組織對資料的使用,並處理涉及該等使用的風險。此處亦包括確保正確的資料被用於正確的目的。

詳細內容參見標準原文。

(未完,待續)


2024年5月5日 星期日

資訊技術使用人工智慧的治理衍生效應(二之六)

ISO/IEC 38507:2022
資訊技術 — 資訊技術治理 — 組織使用人工智慧的治理衍生效應 (續)

人工智慧與人工智慧系統概觀
一般規定

人工智慧系統有多種形式,需要治理機構進行不同程度的視察。因此,治理機構須瞭解「使用人工智慧」的衍生效應,以及在哪個階段須使用治理機構直接參與,或經由合宜的治理機制間接參與。

人工智慧系統以現有的資訊技術能力為基礎,包括網路、物聯網設備,例如:感測器和啟動器、大資料和雲計算。

人工智慧技術領域的最新進展大多與機器學習(Machine Learning, ML)領域有關。機器學習是一種人工智慧技術,使計算機能夠「學習」而無需另外編輯專用程式。該領域內,資料是關鍵:它們可以是文字、數字、圖片、符號、公式、圖表、圖像、語音、聲音或影片。依照現有資料集創建的模型,而將之應用於新的資料,從而解决特定問題、預防某種後果、或對新輸入的資料進行分類。

奠基於機器學習的人工智慧系統性質,包括其使用目標、其選擇的演算法、資料驅動方式、訓練方法學、和基於或然率而輸出的結果,使得該組織有可能面臨更多的風險和機會(另見風險一節)。


人工智慧系統可以通過分析資料實現決策自動化,從而提供潛在的或然率結果,在許多情況下,還可以根據該結果採取行動。人工智慧系統可以改變產品性質、流程和關係,以及組織的營運方式。這會對大多數產業引起重大衝擊。

與任何提供益處的強大工具一樣,也存在着潛在的傷害。因此,人工智慧的使用須納入組織的風險評估。

使用人工智慧可為組織帶來新的義務。可以是法律要求,也可以是採用自願性實務守則的結果,無論是直接在人工智慧系統的決策過程自動化範圍內,或是通過間接使用資料或其他資源、或各項過程而成。人工智慧系統在沒有人類參與的情況下,跨越提出行動備選方案與執行措施本身之間的界限的潛力,應該是治理機構的主要考慮因素。

人工智慧與其他技術的不同之處在於,從各種來源收集到的資料數量和複雜性可能過於繁複,無法由人類處理或充分地作業,特別是從治理衍生影響的角度來看:
  • 決策自動化的接納能力;
  • 使用資料分析、洞見和學習,而非以明確的人類編碼邏輯去解決問題;
  • 隨着人工智慧系統環境的變化的適應能力,雖然沒有特地編製的程式碼,或者須要事先知道。
這三個元素對組織及其治理具有廣泛的衝擊。

人工智慧系統與其他資訊技術的區別
決策自動化
人工智慧系統通常根據為設計人工智慧系統的任務所選擇的歷史和目前的資料而創造輸出內容。現代人工智慧系統,特別是基於機器學習的系统,得到的預測內容通常以或然率表示。例如:
  • 該部分不符合品質要求的或然率為97%;
  • 選擇該途徑有92%的的或然率為最快捷;
  • 攝影機前的臉孔屬於「Barry Jone」的或然率為98%;
從前述獲得的或然率,人工智慧系統可以得出不同的措施,且因地制宜而措施亦會不同。某些情況下,轉瞬間即可完成該等措施。
做出決策的速度是人工智慧系統的關鍵參數,因此使得組織樂於採用此種強大工具。適用決策自動化的範圍牽涉到納入考量之數量龐大及多變的輸入資料。

資料導向式解決問題

人工智慧系统,特别是那些基於機器學習的系统,通常檢查大量的資料,並識別和完善該等資料中的模式。 此項能力使這類系統能夠處理某些類型的問題,凡是問題太困難或太費時處理,因此不適宜由人類自己或使用傳統的撰寫程序技術的方式解決。

由人類執行每一個邏輯步驟與編寫程式以解決問題,可以由資料導向過程替代,舉例言之:
  • 辨認臉孔,對人類而言輕而易舉,但逐步解釋如何辨認卻相當困難。人工智慧系统經由辨認數千個臉孔圖片,從資料中學得模式,應用此種模式在新的臉孔圖片。
  • 從數百萬個健康細胞中辨別癌症細胞的過程很困難,但機器學習的圖片識別技術已證實診斷癌症相當有效。
綜合地看,運用機器學習持續變更的資料,尤其在系統不斷進化、重新訓練及持續學習,戲劇化地快速解決問題,展現鉅大潛力,另外亦是對治理的挑戰。

適應型系統
某些人工智慧系统可以在運作階段亦執行重新訓練,或是持續性訓練。運作時接收到的輸入資料將由人工智慧系统運用以改進或優化內部設置模組。因此人工智慧系统經過一段運作期間,可以從相同的輸入資料送出不同的輸出結果。此種適應性質係對外部刺激的進化形式,可能的外部刺激為環境或是回饋人工智慧系统。試舉一例:某種推薦系統會觀察某個使用者關於人工智慧系統建議事項的反應,從而自適應化以提高獲得使用者接受的比例。此即ISO/IEC 22989, 3.1.1.10持續學習的例子。

適應性亦可以是自行改進的結果,例如:西洋棋人工智慧系统便可以自行對弈而提昇棋藝。
適應型系統與治理的密切關聯性如示:
  • 人工智慧系统潛在地需要具備一些能力,以供深入瞭解其功能;如:處於評鑑或稽核的情況時;
  • 既然人工智慧系统功能會與時俱進,為了確保該系统仍然運作在設定的邊界線內,可能需要進一步評鑑,或其他管制方式;
  • 人工智慧系统的適應性足以增進組織敏捷性,從而擁有策略性優勢;
  • 人工智慧系统可以未受注意地迴避既有的治理管制措施。管理階層須確保人工智慧系统明確地遵循既有的治理管制措施。
人工智慧生態系統

為了瞭解人工智慧系统各項因素及其與組織的相關性,仍需對人工智慧生態系統採取層次性方式。
圖1 展示人工智慧生態系统廣泛的不同技術光譜,另見ISO/IEC 22989 的圖6詳細顯示,涵蓋了機器學習要素和計算式資源。凡是採用人工智慧技術,便為整體人工智慧系統的功能事項添加新的機器學習要素,故從治理考量亦須納入管理。

圖1:ISO/IEC 22989圖6人工智慧生態系统的簡化版

人工智慧生態系统的層次性表達方式,有助於描繪每一層次,及當責範圍,且係基於組織在。生態系统的角色,和治理機構當責的合宜層次。

人工智慧生態系统的複雜性質代表照料的範圍亦隨之變化,基於下列多個參數:
  • 人工智慧系统的預期目的;
  • 人工智慧的類型;
  • 採用之人工智慧生態系统的功能層次;
  • 人工智慧系统可以交付的潛在利益;
  • 人工智慧系统可能伴隨出現的新風險;
  • 實施人工智慧系统的階段。
人工智慧價值鏈中,組織所扮演的角色,如:人工智慧供應者、人工智慧生產者、顧客;參見ISO/IEC 22989, 第5.17節。

上述參數將依照組織的目的及目標而變化,亦可因寧可採用人工智慧系统而非其它資訊技術的決策而變化。通常在發展及展開人工智慧系统前期便須考慮此等參數,然而,即使在整個人工智慧系統生命週期組織亦須考慮各類參數。

圖2展示人工智慧系統生命週期的初期至退休的各階段。一旦組織決定採用人工智慧,此圖能協助治理機構識別起結點或「門檻」,在該等位置會出現治理時的關鍵問題,需要治理機構予以關切處理。


將上述人工智慧系統生命週期的納入考量,組織便可以開始瞭解如何拓展既有的治理機制。此處的生命週期有助於組織決定,按照擇定的人工智慧系統依賴的資料,須增加何種治理。ISO/IEC 38505系列標準討論資料的治理。生命週期亦有助於治理機構識別當組織處於某個階段時,可能會曝露在何種增加的風險,從而做出決定,如何管理該等風險。

詳細內容參見標準原文。
(未完,待續)

2024年5月1日 星期三

資訊技術使用人工智慧的治理衍生效應(一之六)

ISO/IEC 38507:2022

Information technology — Governance of IT — Governance implications of the use of artificial intelligence by organizations

資訊技術—資訊技術治理—組織使用人工智慧的治理衍生效應

導言

該標準目的係供正在使用或考慮使用人工智慧 (AI) 的組織的治理機構提供指引。如果組織使用人工智慧,宜採用人工智慧的治理方案,否則,組織內任何一個人都可以利用人工智慧做出其想做的任何事情,而組織幾乎一籌莫展。
註:  此文係引用ISO/IEC TS 38507:2022 標準相關內容。

該標準對於支持組織(公共或私營)的穩健管理方案至關緊要,原因之一,在於涉及到在處理其他資訊技術時,通常須採取大多數治理措施盡在其中。因此,該標準可確保組織具備人工智慧的治理基礎。

該標準就治理機構在其組織內使用人工智慧方面的作用提供了指引,並鼓勵組織使用適當的標準來支持其治理人工智慧的使用。

該標準提供治理機構在組織中扮演的角色,使用人工智慧規則的指引,並鼓勵組織採用適當標準襄助使用人工智慧的治理。

從理解使用人工智慧的治理衍生效應所必需的範圍內,該標準處理人工智慧的性質和機制:哪些是使用人工智慧帶來的其他機會、風險和責任?強調重點在組織使用人工智慧的治理(此項目係由人類完成),而非構成任何人工智慧系統的技術。但是,從事治理皆需瞭解該項技術。

人工智慧(AI)

人工智慧擁抱多種技術,將計算力、可擴展性、網路、聯結型設備和連結界面,以及鉅大數量的資料聯結在一起。該標準提到的人工智慧是指一系列技術和方法,而非僅指某個具體的技術、方法或應用。另見ISO/IEC 22989 人工智慧概念及詞彙。

人工智慧的使用

該標準所謂的「運用人工智慧」係從整體概念入手,凡是開發或應用人工智慧系統,無論在該系統生命週期的何種階段,用以達到組織的目標或增加價值,皆屬於此項概念。此處亦包括提供或使用人工智慧系統的任何參與方面。

使用人工智慧時治理生效應

該標準範圍已考慮運用人工智慧衍生效應時的組織,無論既已採用何種強力工具,採用了人工智慧便帶入新的風險和責任,故組織運用此項工具時皆須謹慎處理。人工智慧的本質不涉及「善良」或「邪惡」,「公平」或「偏差」,「倫理」或「非倫理」,即便使用人工智慧時予人該等印象。

組織的目標、倫理及其他指引係反映在其政策內,既為正式地亦可為非正式地。該標準既檢查治理和組織的政策以及實務應用,並提供指引,協助上述事項適應於運用人工智慧。在各相關事項,該標準引用個別的國際標準,如:社會責任、可信任性(包括風險管理、偏差與品質管理)、合規性管理。

該標準為ISO/IEC JTC 1 資訊技術的聯席委員會,所屬之技術委員會SC40 資訊技術服務、治理,與SC42人工智慧合作制訂。

© All Rights reserved. 版權聲明

範圍

該標準提供組織的治理機構成員指引,得能治理使用人工智慧,以確保其效果、效率及得以使用在組織內且獲得接納。

該標準亦供各類社群當做指引使用:
  • 執行管理階層;
  • 外部企業或技術專家,如:律師或會計師、零售或工業協會、專業機構;
  • 公共部門與立法單位;
  • 內部與外部服務提供者,包括諮詢師;
  • 評鑑者與稽核員;
該標準適用於治理目前和未來使用人工智慧及使用時衍生效應的組織。

該標準適用所有類型組織,包括公私營公司、政府部門和非營利組織。該國際標準適用於各種規模的組織,無論其是否獨立於資料或採用何種程度的資訊技術。

參考文件

  • ISO/IEC 22989:2022, 資訊技術 — 人工智慧 —人工智慧概念和術語
  • ISO/IEC 38500:2015,資訊技術 — 組織的 IT 治理 (參見專文討論)(2024年第3版已出版)

詞彙

使用人工智慧:在人工智慧系統生命週期的任何階段開發或應用人工智慧系統,以實現組織的目標。
監督:監測組織和治理政策的實施以及組織設定的相關任務、服務和產品的管理,以適應內部或外部環境的變化。
風險:不確定性對目標的效應。
風險偏好:組織願意追尋或留置的風險數量與類型。
合規義務:組織必須遵守的要求,以及組織自願選擇遵守的要求。
合規:履行組織的所有合規義務。

組織治理

一般規定

參見ISO 31000,第3.5條,治理得以引導組織、內外部關係邁入正軌,其流程和實務皆達到預期目的。管理階層轉換治理為策略及相應目標要求,以達成預期之持續績效與長期繁榮的水準。

附錄A提供治理與組織做出決策的概念綜覽,及相應之國際標準。

組織的治理機構負責將傳統目標內容轉換成財務目標及非財務項目,包括文化、價值及倫理成果。由此產出組織與治理政策並廣為周知,且結合多個面向:管制、企業關鍵績效指標、與各種執行面溝通事項。

組織的當責單位是且僅是治理機構,不得轉嫁。

組織的治理機構持續地負責考慮組織之密切相關項目,如:引介新工具、技巧或技術。

治理機構成員須保證自身,且向利益相關者佐證說明,前述政策及交互作用、人事資源、組織採用的流程和技術。這不是新任務,而是加入人工智慧後,潛在帶出組織的新目標、達成或延展既有目標,從而更加有效果與有效率。

(引入人工智慧時) 保持治理

治理機構為組織訂出目的、核准必要策略,旨在達成前項目的。無可諱言,加入人工智慧後,既有治理內容難免需要調整。管理階層負責決定關於挑選人工智慧工具,如:人工智慧系統;前提是須參照及符合治理機構訂定的指引事項。為建立此等指引,治理機構須瞭解人工智慧通用詞彙,以利工作推行,如
  • 組織策略考量的重大利益;
  • 組織的重大風險,因其潛在地可能危害一群利益相關者;
  • 增加組織的義務。 
治理機構以其風險偏好須評鑑預期使用的人工智慧。風險可能變化多端,新見解和積極主動方法為組織提供應對風險的手段。因此,如果必要時,該組織承認願意修改或中止專案。詳情見ISO/IEC 38506:「ISO/IEC 38500應用於IT支持投資的治理」。

使用人工智慧的密切相關事項:
  • 更多地依靠技術和系統獲取資料並確保其品質;
  • 人工智慧系統(包括深入瞭解其中包涵的目標、假設和規則)的透明度和可解釋性,替代使用部分或完全自動系統處理以前由人類執行的任務和問題(如:信用評等),以及修改和更新某些演算法的適當流程;
  • 考慮到現有的指引與管制不再適合確保所需要的結果(從而減輕非預期後果的風險)的或然率,甚至可能折衷處理。皆是由於當委派給某個人類時,會視情況做出不同的假設,而不是使用人工智慧或從人工智慧獲得協助;
例子:「推遲到年節假日之後再償還貸款」的指示,對某個人類操作員來說是足夠明確的,但對於一個人工智慧系統來說卻不夠精確,無法正確執行。 未使用人工智慧的組織之銷售和營運受到(競爭者使用人工智慧)帶來的競爭壓力;
  • 雖然接受使用人工智慧系統,卻未意識到或考慮潛在的偏置、錯誤或傷害,或將人工智慧嵌入既有複雜系統的衍生效應;
  • 自動學習系統的變化速度與相應的人為遵守管制之間的差距愈來愈大;
  • 人工智慧對勞動者的衝擊,考慮關於歧視、損害勞工基本權利、作業自動化、技能喪失、再培養技能等,引起裁員以及可能遺失組織知識等,宜於巧妙運用人工智慧提高人類創造力,通過將重複、瑣碎或危險的任務轉換給人工智慧系統處理,從而提高工作品質;
  • 對企業營運和品牌聲譽的衝擊。 使用人工智慧亦可減少或消除某些既有風險,因此治理機構須檢討與調整其風險評鑑。
例子: 在部署人工智慧系統以輔佐從事重複型任務的人類時,或者在要求人類不斷監督尋找罕見異常情況的系統(如:保安警衛)時,人工智慧系統可以減少出錯的風險。

引入人工智慧時保持當責

治理機構的成員負責組織的視察和成果,以及能夠獲得係稱做出保證的系統和實務。該等成員對組織各層級做出的決定當責,包括經由使用人工智慧做出的決定,以及在部署人工智慧的地方涉及治理和管制的適當性。因此,該等成員對使用人工智慧的當責,才是組織認為可以接受的。

治理機構須承擔使用人工智慧的責任,而不是將該項責任轉嫁予人工智慧系統。治理機構成員負責知情使用人工智慧系統帶來的可能性和風險。治理機構的成員須意識到擬人化人工智慧的風險,該等現象使人類的特徵(如:思維作用、情感表達、做出判斷、泛道德化)係過度地附加給人工智慧系統,或許並不恰當,但對於理解使用人工智慧的作用卻是該角色的必要條件。

治理機構成員對組織的不當措施當責。例如組織內部的盡職、關心、指導、訓練、視察和強制執行等不當情況將導致問題出現,此種當責可以由治理機構本身、或利益相關者、或通過其他手段予以確保。治理機構成員可能面臨罰鍰、免職或法律矯正等措施。


因此,治理機構須確保其做法符合組織內適用人工智慧的具體用途。可以包括審查、當必要時,予以加強:
指示:通過在組織內使用人工智慧有關的政策、策略、資源配置、倫理守則、價值陳述、宗旨或其他工具;
視察:在組織中使用人工智慧,須經由評估人工智慧,評鑑其對組織的價值和組織的風險偏好,並得以確保其實施、監督、量測、確保決策和其他機制;
評估:考慮不同的因素,例如與組織有關的內部和外部因素、當前和未來的威脅和機遇、所取得的成果、現有治理機制的效果和效率,以及對所做出的決定和備選方案的判斷。
報告:向利益相關者展示,對人工智慧的使用正由當責人員有效地治理(參見ISO/IEC 38500, 4.2節的「評估」、 「指示」、 「監督」各項任務說明。)

治理機構須確保具備必要的因應能力,處理使用人工智慧的衍生效應事項。可以考慮下列措施:
  • 改進成員們人工智慧相關技能;
  • 增加組織使用資訊技術與人工智慧的檢討頻率;
  • 檢查及更新用於監督內部和外部環境的使用準則;
  • 須確保納入成員利益與關切事項,如:工作場所安全、員工訓練、工作品質;
  • 增強視察措施,建立或擴充次級委員會以推動策略、風險、評鑑或稽核、及倫理事宜。
治理機構當責性須建立在跨足各面向,涵蓋預期或實際使用人工智慧等面向,且足以確保預期结果的方式,值得注意者:
  • 考慮使用人工智慧的潛在衝擊;
  • 規劃企業策略時結合使用人工智慧;
  • 人工智慧系統生命週期涉及運用在採購、實際運用、組成型態、展開、測試及各種專案階段;
  • 人工智慧曝露在環境變更時,人工智慧系統的學習與措施、決策與產出、對利益相關者的衝擊;
  • 適度的保全管制措施須確實發揮作用,以保護組織、其利益相關者及其資料;
  • 當退役時,亦須包括存放在人工智慧系統內的知識與資料。
除了與人工智慧本身相關的問題外,還有一些與新引進的技術相關的其他問題,可能影響到組織及其利益相關者,包括下列事項:
  • 錯誤理解技術本質;
  • 做出不恰當的治理決定;
  • 忽略恰當的人工智慧之治理視察;
  • 既有的治理範圍疏於納入人工智慧;
  • 不恰當地或無所不在地應用某項技術,而未顧及特定前後環境、適宜地規劃、政策考量或訓練等相關事項;
  • 疏於處理人類與人工智慧系統新浮現關係中的衍生效應。

詳細內容參見標準原文。
(未完,
見續篇

2024年4月6日 星期六

ISO/IEC 38500 (2015) 組織的資訊技術治理

ISO/IEC 38500:2015

Information technology — Governance of IT for the organization

資訊技術—組織的資訊技術治理

概述

ISO/IEC 38500 (第2版) 提供基本詞彙及概念、原則,治理機構得以運用的模式,供組織評估、引導、管理和監督資訊技術在組織內的使用情況。

資訊技術的蓬勃發展,推動全球公民營組織和企業堂堂邁入知識型經濟時代,資訊網路和通訊技術配合組織創新活動,已成為企業生產力和日常營運的必備要素,因此,有必要制定一個可遵循的模式或標準,以便正確使用此等資訊技術,有助於日常活動中維持營運,避免網路或通訊中斷引起經濟損失或危害,使企業未能完成工作或既定目標。

資訊技術不僅是支持企業營運的工具和技能,也是公司策略規劃的重要環節,經由資訊技術協助促成新的營運模式、產品和服務,使企業能夠長期和可持續發展,力求躋身於各自領域裡最優秀的公司之列。

該國際標準基於給定原則的高階層諮詢標準。除了就治理機構的作用提供廣泛指引外,亦可鼓勵各組織採用適當的標準鞏固組織管理資訊技術。

為了實現該項目標,組織須建立某種資訊技術模式,使企業能夠滿足客戶的要求。基於此種情況,須建立資訊技術(IT) 治理機制,將組織中所有參與者的利益整合在一起。通過遵循 ISO/IEC 38500 
(第2版)標準提供的高層級架構、基於原則和資訊技術指引模式,當可確保創造資訊技術價值,降低資訊技術相關的企業風險,並促成整個組織的資源和成本最佳化。

資訊技術支出佔到組織財政和人力資源支出的很大一部分。然而,此項投資往往不會完全實現具體回報,而且會帶來不利影響,亦對組織可能帶來很大潛在影響。

產生該類負面結果的主要原因是強調資訊技術活動侷限在技術、財務和行程安排等方面,而不是強調使用資訊技術的企業大環境。

公司治理財務問題委員會報告「凱德伯利報告,the Cadbury Report」在1992年公佈的公司治理係與該國際標準的定義維持一致。「凱德伯利報告」在1999年的世界經濟合作組織「公司治理原則」(後在2004年再予修訂)中提供公司治理的基本定義。治理係不同於管理,為避免混淆,兩個概念分別由本標準及伴隨標準ISO/IEC 38502予以闡釋。

該標準為充分有效地管理資訊和通訊技術建立的架構,使高階管理者能夠了解並履行其在組織內使用資訊技術方面的義務。

該國際標準主要針對治理機構。某些組織內(通常是較小的組織),治理機構的成員也可以是執行業務的經理階層。本國際標準適用於所有組織,從最小的組織到最大的組織,無論是何種目的、設計或所有權結構。

ISO/IEC TS 38501係提供實施資訊技術治理的國際標準。
ISO/IEC 38500:2024 (第3版)已正式出版。

© All Rights reserved. 版權聲明


效益和良好的資訊技術治

ISO/IEC 38500 適用於使用資訊技術的各類組織內資訊技術治理流程之治理機構,包括業主、高階管理階層、合黟人、執行階層等,為客觀評估資訊技術治理的有效性、效率及組織內足以有效實施資訊技術提供指引原則及應用模式。

除了遵守及符合現行法律外,資訊技治理亦可實現下列目標:

  • 適當實施和營運資訊技術的資源。
  • 明確責任,衡量組織目標的實現情况。
  • 業務連續性和可持續性。
  • 使資訊技術與企業需求保持一致。
  • 有效分配資訊技術資源。
  • 服務、市場和企業創新。
  • 改善與利益相關者的關係。
  • 降低資訊技術成本。
  • 有效實現每項資訊技術投資的預期效益。

亦可提供給組織的董事階層做出建議、通知或協助的人提供指導。他們包括

  • 經營管理執行階層
  • 監控組織內資源的小組成員。
  • 外部業或技術專家,例如法律或會計師、零售或工業協會其他專業機構。
    內部和外部服務提供者
  • 內部和外部服務提供者(包括諮詢師)。
  • 稽核員、驗證機構。

該國際標準適用於組織目前和未来使用資訊技術的管理,包括與目前和未来使用資訊技術相關的管理過程和决策。該等過程可以由組織內的資訊技術專家、外部服務提供商或組織内的企業單位進行管制。 目前尚無該標準相關的人員或組織第三者驗證方案或認證方案。

該國際標準將資訊技術治理定義為組織治理的一個次集合或領域,對於公司而言,也可將其定義为公司治理的一個次集合或領域。

如果遵循標準提出的原則和做法,組織得以向利益相關者保證:
  • 外界可以對組織採用資訊技術的治理具備信心,
  • 告知和指引治理機構管理其組織内資訊技術的使用,以及
  • 建立資訊技術治理辭彙。

ISO/IEC 38500 的前身是ISO/IEC 29382,是資訊技術企業管理的國際標準,後者係跟進澳大利亞標準 AS 8015:2005,再由ISO和IEC成立聯合技術委員會 ISO/IEC JTC1資訊技術,下轄的次級委員會SC40資訊服務管理及資訊治理,參考澳大利亞標準AS 8015,並結合AS 8000:2003良好治理原則,AS 3806合規性程序,正式制定,並於 2008 年 6 月正式發佈ISO/IEC 38500:2008第一版,替換ISO/IEC 29382。後續在2015年發行ISO/IEC 38500:2015第二版,以第一版的基礎,而在章節安排、小節和圖樣做了技術更新。此篇短文係參考第二版撰寫,而第三版已在2024年出版,另外再擇期補充。

ISO/IEC 38500:2015 為企業所有者、董事、合作夥伴、合伙人、經理、高級行政人員或類似人員提供有關資訊技術治理的簡明指引,適用於所有類型組織,包括公私營公司、政府部門和非營利組織。適用於從最小到最大的各種規模的組織,無論其採用何種程度的資訊技術。促進所有組織有效果、有效率和可接受地使用資訊技術。

該標準適用於公司內部與資訊和通信服務相關的流程管理。該等流程可由內部(組織內部)或外部(組織外部)的資訊和通信技術專家管制。

該標準允許資訊技術及相關從業人員向公司管理階層提供建議、資訊或協助。

組織得以向利益相關者保證,只要遵循標準提出的原則和做法,他們就能對 組織的資訊技術治理充滿信心、

向治理機構提供在其組織內使用資訊技術的資訊和指導,以及建立 IT 治理詞彙表。

  • 確保相關各方(管理、工程、業務、生產和資訊技術等部門)能夠信任資訊技術部門的公司治理。
  • 為控制組織內資訊技術使用的管理人員提供資訊和指導。
  • 為最高管理階層在資訊技術管理方面進行客觀評估提供依據。


ISO/IEC 38500 標準適用於利用資訊技術的各類組織的資訊技術管理流程的治理,其目的是促進對資訊技術治理的客觀評估,主要是為了實現績效和成本效益目標,但主要是為了防止資源的損失。它所帶來的益處主要體現在以下方面:
  • 在企業、服務及市場創新
  • 使資訊技術與業務需求保持一致。
  • 適當實施和營運資訊技術資源。
  • 明確責任和當責,衡量組織達到資訊技術目標的實施情況。
  • 業務連續性和可持續性。
  • 有效分配資訊技術資源。
  • 改善與利益相關者的關係。
  • 實現有效的效益:從投資每項資訊技術的預期效益

ISO/IEC 38500

ISO 38500 確認了 「資訊技術良好企業治理」的六項原則,說明如下:

該等原則為做出決策提供指引,並讓使用者了解到在資訊技術方面,一個組織內部應該如何實現良好的公司治理。

原則 1.- 責任:組織中的每個人都必須能夠理解並接受自己在資訊技術運用方面的責任。責任分工,對分派的責任予以評估,確保能夠承擔所分派的責任,監督各項分派的責任及實施情況。

組織分派資訊技術須考慮組織採用的商業模式和組織結構,例如:是否配備需要內部管理的資產、是否需要外部諮詢師協助、由外部供應商或協力商提供的產品或服務。

原則 2.- 策略:在此項原則,必須考慮企業當前和未來的資訊技術能力或需求,以便制定策略規劃來達到該等需求。

原則 3—可獲得性:獲得資訊技術須有正當理由,應在效益、機會、成本和風險之間取得平衡,並以短期和長期為參照座標。

此項原則呈現組織關於風險與價值的規劃分配,涉及資訊技術的近期和中期投資政策,管理階層須依照政策及文件化程序確保資訊技術投資的安全性,此類投資事項的資源分配須受到監督,必要時得以及時更新或重新分配。資訊技術的實施須整合各類資訊面向及系統能力,亦包括獲取資訊和處理資料,確保組織順利執行與維持資訊前後環節和資料管理。

原則 4.- 績效:資訊技術的規模必須能夠更有效地支持組織,提供品質適當的服務,以滿足當前和未來的需求。

組織須合宜分配目前的活動,指導規劃措施的實施與發展以彌補差異。資訊技術朝向輕薄短小化發展,網際網路的各項標準使得不同服務供應商及其設備,愈來愈依靠調適工作以確保相容性和內部可操作性,因此墊高製造商之間的競爭難度,但也開創更廣闊的市場機遇,及業務的潛在發展方向。發展過程中,某些早期措施往往帶有重複投資或是否有效的質疑,或者是否有助於產生業務利潤,開拓新市場的可能性。預期客戶採用新資訊系統的週期將逐漸拉長,例如:網路銀行ATM業務間的資訊交換作業。

原則 5.--合規性:該原則旨在核對所有資訊技術功能是否符合所有強制性立法和標準,以及政策是否得到明確界定、實施和執行。組織須考慮所有內部政策,包括使用資訊技術於電子郵件、行程表、網路蒐尋引擎等,以及業務執行及作業事項,包括文件及紀錄存取、收支與財務報表、組織業務機密及隱私性資訊保全等。

原則 6.--人
類行:資訊技術政策、實踐和決策應體現對人類行為因素的尊重,包括所有相關人員當前和未來的需求。僅以資訊技術人員可能的面向考量,例如:使用者界面的可使用性及友好性、使用者受到資訊技術帶來的業務過程變化及由此產生的需求等。管理階層須謹慎考量資訊技術的引入及實施,兼及從而產生的人類行為因素波動或衝擊,比照組織財務和人事管理方式,指導、評估及監督組織的資訊技術應用。

在 ISO 38500 的這六項原則中,每項原則都必須完成以下三項任務,才能有效實施和執行,這就是所謂的 ISO/IEC 38500 模式。


ISO/IEC 38500 治理模式

該標準推薦的模式不同於ISO 9001的PDCA模式,而是反映出資訊技術的組織良好管理實務。組織宜考量企業所處的產業環境、商業壓力、顧客需求、企業治理所需的資訊與通訊技術,靈活運用前述六個治理原則,規劃實施政策、資訊與通訊技術應用在商業過程、彌補差距、檢討建議方案、監督實施效果及持續改進。

管理階層必須通過構成本標準模型的三個具體要素管理資訊與通訊技術。
  1. 評估:係指檢查和判斷資訊技術當前和未來的使用情况,包括策略、建議和協議。
  2. 指導:管理階層必須負責正確地實施資訊技術計劃和政策,分配責任。主要目的是在組織內部培養一種良好的資訊技術管理文化。
  3. 監督:管理階層須通過量測系統監督,其目的是查核 IT績效是否達到規劃和業務目標。



治理模式之關係

一旦確定了原則和管理模式,該標準就為實施原則所需的做法提供一般性指導。為此,標準確定了原則與高層管理階層的三項基本任務(評估、指導和監督)之間的關係。

在任何情況下,每個組織都有責任根據該組織的性質,以及對使用資訊技術的風險和機遇的適當分析,確定實施該等原則所需的具體措施。

 



ISO/IEC 38500 vs ITIL

由基本性質看來,ISO/IEC 38500 是一種國際標準,而資訊技術基礎架構庫 (Information Technology Infrastructure Library, ITIL )規範是一套產業界現今實務文件,而非國際標準,雖然兩者都為使用者提供了良好管理資訊技術資源的工具,從而為企業增加價值,但 ITIL 提出的是一種工作方式,做為一種建議,而非要求或指令,而 ISO/IEC 38500 則供組織遵守標準制訂的 6 項原則及3個要素,以便組織能夠加以運用,實施資訊技術治理系統。


兩者的共同點是,必須制定企業策略,以便在企業中進行創新,從競爭對手中脫穎而出,從而取得相對優勢。


詞彙

可接受的:企及利益相關者期許,當期許係以合理或理所當然方式展現時。
當責:對措施,決策和績效帶有責任。
當責性:當責的狀態。
公司治理:通過該系統指導和管制公司。
指導:傳達所期許的目的及結果。
評估:考慮並做出知情判斷。
執行經理人:擁有治理機構授權的權責,實施策略和政策,從而實現組織的目的。
治理:指導和管制的系統。
治理機構:組織的績效和一致性當責的人或數人。
資訊技術(IT)治理:指導和管制目前和未來使用資訊技術的系統。
人類行為:人類的互動、與系統其他元素之間的互動。
資訊技術(IT):用於獲取,處理,儲存和廣為傳播資訊的資源。
投資:分配資源以實現既定的目標和其他利益。
管理:由治理建立的權限與當責範圍內行使管制和監督。
經理:負責管制和監督組織或部分組織的一群人。
監督:為了適當決策和調整的基礎所做的檢討。
組織:具有職責、權限和關以實現其目標的人或一群人。
組織治理:指導和管制組織的系統。
政策:正式表達的組織意圖和方向,由其治理機構或執行經理以相應權限行事。
提案:匯整收益、成本、風險、機會以及其他因素,適用於即將做出的決定。
資源:係指人員、程序、軟體、資訊、設備、消耗品、基礎設施、資本和營運資金及時間。
責任:採取行動及做出決定,以實現要求成果的義務。
風險:不確定性對目標的影響。
利害相關者:某項決定或活動可能影響、受到影響、或自認為受到影響的任何個人、團體或組織。
使用資訊技術(IT):規劃、設計、開發、部署、營運、管理和應用資訊技術,從而為組織實現企業目標並創造價值。

結論

通過使用ISO/IEC 38500 標準,可以建立一個以指導、監督和評估為基礎的 資訊技術治理模式,其原則包括:責任、策略、獲取、績效、合規性和人類行為,如果該等原則、模式及流程得以正確執行,就可以實現資訊技術治理和企業目標。
該等六項原則是本標準基本足以實現組織內資訊技術資源的有效性和效率的關鍵。
公司治理可確保有效報告和遵守法律法規,並有助於避免聲譽受損或其潛在後果。

詳細內容參見標準原文。

本篇竟

2023年11月4日 星期六

人工智慧風險管理架構 Artificial Intelligence Risk Management Framework

工智慧風險管理架構

Artificial Intelligence Risk Management Framework

2023126日,美國國家標準與技術研究院(NIST)正式公布《人工智慧風險管理架構》(AI RMF(NIST AT  100-1, AI RMF 1.0),係非強制型指引文件,相關機構開發和展開人工智慧系統時,亦須顧及降低安全風險,避免發生偏見與負面後果,提高人工智慧信任度,保障公民公平自由基本權利。

註:此文並未涵蓋該文件全部事項,相關內容務須參閱各項文獻原本及最新版次。此處係閱讀隨筆,僅供個人學習,非供印刷或潛在意圖出版。

©All Rights reserved.

概述

該文件分為兩大部份及剖繪文件:


第一部份探討人工智慧相關風險及架構建立方式,概略說明人工智慧系統信任度特徵。


人工智慧系統由四個主要考量事項:

  • 風險架構:包括對風險、衝擊、傷害的理解與處理,及人工智慧風險管理的挑戰,包括風險量測、風險承受程度、風險優先等級排序,組織納入與管理風險等;

  • 目標群體:理想設定情況下,可信任的人工智慧風險管理架構應適用於人工智慧的完整生命週期和多面向的活動領域;

  • 風險和可信度:可信任的人工智慧須達到諸多限制條件,如:有效與可信任、安全、保全與恢復能力、當責與透明、可解釋性與可說明性、強化私密性、公平且管理傷害型偏見;

  • 有效性評估:包括衡量人工智慧系統信任度基礎的改進方法,涉及:策略、過程、實施、實施規劃、指標、量度及預期結果的定期評估。

第二部份介紹 人工智慧風險管理架構四大核心功能,如下示:

  1. 治理(govern係對人工智慧系統完整生命週期實施有效風險管理的內在要求。包括六個次級類別:

  • 政策、過程、程序及實施,均須完善透明且有效實施

  • 完善問責機制

  • 優先考慮人員的多樣性、平等性、包容性和可存取性

  • 建立風險預警的管理小組,配合風險資訊交流共享

  • 追蹤且及時回饋對社會與使用者的潛在影響

  • 完善解決機制,及時處理因第三者軟體、資料、供應鏈引致的風險及潛在影響

  1. 映射(map,包括五個次級類別:

  • 系統營運的相關背景環境因素與預期使用環境須明確

  • 做成系統分類

  • 瞭解系統功能、預期用途、成本、收益等

  • 將風險與收益映射到系統的所有組件和環節

  • 評估對個人、群體、組織、社會等的潛在利益與負面影響

  1. 量測(measure係指採用定量、定性或混合式工具,對人工智慧系統的風險與潛在影響做出分析、評估、測試和管制,包括四個次級類別:

  • 確定及採用適當的方法與指標,定期記錄、評估及更新

  • 評估人工智慧系統的可信任性特徵,如:代表性、有效性、安全性、強固性及可持續性等;

  • 完善特定風險識別與追蹤機制

  • 定期評估與回饋量測功能的有效性

  1. 管理(manage包括四個次級類別:

  • 基於映射與量測功能的評估與分析結果,對人工智慧系統風險做出判定、排序及回應;

  • 制定實施最大化收益與最小化負面影響策略,明確風險回應步驟;

  • 有效管理來自第三方的風險與利益,定期監督並記錄之

  • 完善風險回應與恢復機制,對已遭到鑑別且可量測的系統風險予以溝通與監督,並記錄之。

1:治理功能的類別與次級類別(略)

2:映射功能的類別與次級類別(略)

3:量測功能的類別與次級類別(略)

4:管理功能的類別與次級類別(略)


人工智慧風險管理架構剖繪

AI RMF 提供了根據使用者的需求、風險承受能力和資源為特定設置情況或應用程式所實施的使用案例剖繪。這些剖繪提供了在人工智慧生命週期不同階段或特定行業、技術或最終用途應用中管理風險的見解。


AI RMF 提及當前剖繪和目標時間剖繪。當前剖繪表示目前如何管理人工智慧風險。目標剖繪表示實現預期人工智慧風險管理目標所需的結果。對比兩者可發現需要處理的差異事項,以達成目標。可以制定行動計劃以處理差異事項,並根據使用者需求和過程確定優先順序。這樣可以比較不同的方法,並評估以性價比高的方式實現目標所需的結果。


跨行業剖繪涵蓋了可以跨用案例或行業使用的人工智慧模型或應用程式的風險。它們還涵蓋了管理大語言模型、雲服務、採購等常見活動的風險。

該架構未指定剖繪文件模板,允許靈活實施。


AI RMF 使用案例剖繪是基於架構使用者的要求事項、風險承受能力和既有資源,針對特定設置情況或應用程式所實施的AI RMF各項功能、類別和次級類別,例如:AI RMF 招募剖繪或 AI RMF 公平住房剖繪。剖繪文件可以說明並提議洞察意見於人工智慧生命週期的各個階段或特定產業、技術或最終使用的應用程式中可以合宜地管理風險。AI RMF 剖繪文件可幫助組織決定如何最好地管理與其目標齊一的人工智慧風險,一併考慮法律 / 法規要求事項和最佳實務,並表達風險管理的優先事項。


AI RMF 暫時性剖繪是對給定部門、產業、組織或應用程式環境中特定人工智慧風險管理活動的當前狀態或期望目標狀態的描述。 AI RMF 目前剖繪展示人工智慧當前的管理方式以及目前結果的相關風險。目標剖繪顯示實現預期或目標人工智慧風險管理目標所需的結果。


比較當前和目標剖繪可能揭示實現人工智慧風險管理目標需要處理的差距。得制定措施計劃處理該等差距,實現給定類別或次級類別的成果。縮小差距的優先順序是由使用者的需求和風險管理過程所帶動。 這種基於風險的方式亦使架構使用者能夠將他們的方法與其他方法進行比較,並衡量所需資源(例如人員配置、資金),以經濟性價比高、優先考慮的方式實現人工智慧風險管理目標。


附錄A人工智慧行為者的任務描述,見原圖2及原圖3

AI設計:人工智慧設計行為者任務為創建人工智慧系統的概念和目標,並負責計劃,設計以及資料收集和處理人工智慧系統的任務,使人工智慧系統合法且適合用途。


AI開發:人工智慧開發行為者提供人工智慧系統的初始基礎架構,並負責模型構建和解釋任務,涉及創建,選擇,校準,訓練和/或測試模型或算法。


AI展開:試行系統,檢查與舊系統的兼容性,確保法規符合性,管理組織變更以及評估使用者體驗。


操作和監督:負責操作人工智慧系統並與其他人一起定期評估系統輸出和影響的人工智慧行為者。


測試,評估,驗證和驗證(TEVV:人工智慧行為者執行測試、評估及驗證。驗證任務與執行測試和評估操作的任務不同。可以將驗證納入設計階段,測試則按照計劃執行以符合設計要求。

  • TEVV的任務係設計、規劃和資料可能集中在對系統設計、資料收集和量測相對假設上展開或應用的預期背景環境的內部和外部確證。

  • TEVV的開發任務(即:建構模型)包括模型證和評鑑。

  • TEVV的展開任務,包括系統證和整合生產和測試,及重新校正系統和過程整合,使用者體驗以及是否符合現有的法律、法規和倫理規範。

  • TEVV的營運任務涉及持續監督定期更新、測試和題材專家(SME)重新校正模型,跟踪報告的事件或錯誤事項及管理上述事項,察覺浮現的特性與相關衝擊,以及補救和響應過程。

因因素以人為中心的設計實踐和方法,促進最終使用者和其他有關方面以及相關人工智慧行為者的積極參與,並將特定於背景環境的規範和價值觀納入系統設計, 在人工智慧生命週期的各個階段評估和調整最終使用者的經驗,以及人類與人類動態的廣泛整合。


領域專家涉及多學科從業者或學者的意見,提供有關的產業,經濟產業,背景環境, 或採用人工智慧系統的應用區域。領域專家的人工智慧行為者可以為人工智慧系統的設計和開發以及預輸出以支持TEVV和人工智慧影響評估團隊執行的工作。


AI衝擊評鑑任務係評鑑和評估對人工智慧系統當責制的要求事項,對抗有害偏見,檢查人工智慧系統,產品安全,責任和安全性等衝擊。


採購任務由具有財務,法律或政策管理階層的人工智慧行為者執行,以從第三方開發人員那裡購買人工智慧模型,產品或服務, 賣方或承包商。


治理和監督任務由具有管理、信託和法律權限的人工智慧行為者承擔,並對設計,開發和/或展開人工智慧系統的組織負責。


其他人工智慧行為者

第三方實體係提供資料、演算法、模型和/或系統以及相關服務的提供商,開發人員,供應商和評估者予另一個組織、組織的顧客或客戶。第三方實體全部或部分負責人工智慧設計和開發任務。它們是獲得其技術或服務的組織的設計,開發或展開團隊的外部。從第三方實體獲得的技術可能複雜或不透明,並且存在風險差異可能不同於展開或運營組織。


AI系統的最終使用者是將系統用於特定目的之個人或團體。這些個人或團體在特定背景環境與人工智慧系統交互作用。


受影響的個人/社區包括受人工智慧系統或基於人工智慧系統輸出的決策直接或間接影響的所有個人、團體、社區或組織。這些人不一定與展開的系統互動或應用之。


其他AI行為者可以提供正式或非正式的規範或指引,以指定和管理人工智慧風險。它們可包括貿易協會、標準開發組織、倡導團體、研究人員、環境團體和民間社會組織。


公眾最有可能直接體驗到AI技術的正面和負面影響。它們可能為人工智慧行為者採取的行動提供推動力。該群組可以包括開發或展開人工智慧系統背景環境相關的個人,社區和消費者。


附錄B人工智慧風險不同於傳統式軟體風險

類同傳統軟體,基於人工智慧技術涵藏的風險可能大過企業、跨越組織乃致引發社會衝擊。人工智慧系統還帶來了一系列當前風險架構和方法無法全面處理的風險。某些存在風險的人工智慧系統功能也可能有所益處。例如:相比其他模型和方法,經過預訓練的模型和轉換學習可以提昇研究並增加準確性和恢復性。鑑別映射功能中的背景環境因素將有助於人工智慧參與者決定風險水準和潛在管理成就。


與傳統軟體相比,新的或增加的人工智慧特定風險包括:

  • 用於構建人工智慧系統的資料可能不是人工智慧系統的背景環境或預期用途的真實或合宜代表, 真正基礎可能不存在或不可用。此外,有害偏見和其他資料品質狀況可能影響人工智慧系統的可信任度,而可能引起負面衝擊

  • 對訓練任務的資料之人工智慧系統依賴性和信賴感,以及與此類資料相關的增加數量和複雜性。

  • 訓練期間的有意或無意改變可能會從根本上改變人工智慧系統的績效。

  • 用於訓練人工智慧系統的資料集可能會脫離其原始和預期背景環境,或者相對於配置背景環境可能會顯得停滯或過時。

  • 人工智慧系統規模和複雜性(許多系統包含數十億甚至數兆個決策點)位於尚處於傳統的軟體應用程序中。

  • 使用可以促進研究和提高績效的數個預訓練模型還可以改進統計不確定性的水準,並引起偏見管理,科學有效性和可重複性的問題。

  • 大規模預訓練模型預測未來湧現特性的故障模式的難度更高。

  • 由於增強了人工智慧系統的資料匯合能力,因此存在隱私風險。

  • 由於資料、模型或概念漂移,人工智慧系統可能需要更頻繁的維護並觸發執行矯正性維護。

  • 加劇其不透明度和擔憂其可重複性。

  • 由於通常的軟體測試標準未臻完善,除了 最簡單的情況,未必能將基於人工智慧的實務記錄到傳統工程軟體所期望的標準中。

  • 由於人工智慧系統不受與傳統編碼開發同類的管制,因此難以進行常規的基於人工智慧的軟體測試或確定要測試的內容。

  • 開發人工智慧系統的計算成本,及其對環境和地球的衝擊。

  • 無法預測或偵測基於人工智慧系統的副作用(超出統計範圍)。

隱私和網域安全風險管理注意事項和方法適用於人工智慧系統的設計、開發、展開、評估和使用。隱私和網域安全風險也被視為更廣泛的企業風險管理的一部分,亦可能包含人工智慧風險。其中包括須要處理的人工智慧可信賴性特徵,例如[安全性和恢復性]和[強代隱私];組織可以考慮翹動既有的標準和指引,為組織減少安全和隱私風險提供廣泛指引,例如(但不限於):NIST網域安全架構, NIST隱私架構,NIST風險管理架構,保全軟體開發架構。這些架構指引具有與AI RMF共同的一些功能。像大多數風險管理方法一樣,它們基於結果而不僅止於描述,並且通常圍繞著核心功能集的類別和次類別。儘管這些基於特定領域的架構之間存在顯著差異,並且因為人工智慧風險管理要求處理許多其他類型的風險,(如上所述的)架構可能會在AI RMF各項映射(MAP)、量測(MEASURE)和管理(MANAGE功能中告知安全性和隱私注意事項。


同時,在發布此AI RMF之前既有的指引並未全面處理許多人工智慧系統風險。例如:現有架構和指引未提及如下事項:

  • 合宜管理人工智慧系統中有害偏見的難題;
  • 遭遇生成式人工智慧相關的挑戰性風險;
  • 全面處理凡是與規避、模型擷取,會員推理 可獲得性或其他攻擊機器學習事項有關的安全問題;
  • 處理人工智慧系統的複雜攻擊表面或人工智慧系統導致的其他安全濫用;和
  • 考慮與第三方人工智慧技術、轉移學習和非標籤使用方式相關的風險,在這些風險中,人工智慧系統可能會接受組織外部決策方面的訓練,或在某個領域中受過訓練,然後在另一個領域中受到[微調]。

人工智慧和傳統軟體技術與系統都受到快速創新的影響。技術進步須予以監督與展開,以利用這些發展並努力實現值得信賴和負責任的人工智慧的未來。


附錄C人工智慧風險管理和人類與人工智慧交互作用

設計、開發或展開使用於營運條件的人工智慧系統的組織,通過了解當前人工智慧交互作用侷限性可以強化人工智慧風險管理。AI RMF提供在使用與交互作用或管理人工智慧系統時,明確定義和區分各項人類角色和責任範圍的機會。


試圖將個人和社會觀察所見與做出決策實務的許多資料驅動方法,依靠人工智慧系統轉換或代表可測量的數量。用數學模型表示複雜的人類現象可能會刪除必要的背景環境為其代價。喪失背景環境反過來可能難以了解對人工智慧風險管理成就至關重要的個人和社會衝擊。


值得進一步考慮和研究的問題包括:

  • 決策和監督人工智慧系統中的人類角色和責任需要明確定義和區分。人類與人工智慧(Human-AI)配置可以從完全自主到完全手動。人工智慧系統可以自主做決定,或將決策推給人類專家,或者由人類決策者看作另種見解。某些人工智慧系統可能不需要人工監督,例如用於改善視頻壓縮比例的模型。其他系統可能需要特定人類監督。
  • 涉及人工智慧系統的設計、開發、展開、評估和使用的決策反映出系統化及人類認知的偏見。人工智慧參與者將其個人和群體的認知偏見帶入該過程。該等偏見可能源於最終使用者的決策工作,並通過人類所假設、所期望及在設計與建模任務中做出的決策,而在整個人工智慧生命週期中所引入。這些偏見不一定總是有害的,可能會因人工智慧系統的不透明性和由此導致的缺乏透明度而加劇。組織層面的系統性偏見會影響整個人工智慧生命週期中團隊的結構以及究竟由誰來控制決策過程。這些偏見也可能影響最終使用者、決策者和決策者的次階決策,並可能導致負面衝擊。
  • 人類與人工智慧的交互作用結果各不相同。例如:在某些條件下(基於感知的判斷工作中)人類與人工智慧相互作用的人工智慧部分可能放大人類偏見, 甚至比個別由人工智慧或人類決策更為偏頗。但是,當組織人工智慧團隊時明智地考慮此等差異時,則可能互相補強並改善總體績效。


向人類展示人工智慧系統的資訊是相當複雜的情況。人類從人工智慧系統的輸出從不同的方式感知並得出解釋,反映出不同的個人喜好、特質和技能。

治理GOVERN功能為組織提供機會,以闡明和定義在人類與人工智慧(Human-AI)團隊配置以及監督人工智慧系統性能的人員中的作用和責任。治理(GOVERN)功能還為組織建立機制,使其做出決策的過程更加明確,幫助抵抗系統性偏見。


映射MAP功能建議有機會定義和記錄具有人工智慧系統性能和可信賴概念的操作員和從業人員熟練程度的過程,並定義相關的技術標準和驗證。實施MAP功能類別和次類別得以幫助組織提高內部專業能力,分析背景環境、鑑別程序性和系統性限制,在現實世界中探索和檢查基於人工智慧系統的衝擊,在整個人工智慧生命週期中評估做出決策的過程,


治理GOVERN)和映射MAP功能描述了跨學科和人口多樣化團隊的重要性,並利用了可能受到影響的個人和社區的反饋。在AI RMF中呼籲執行人因因素任務和活動的人工智慧參與者,可以協助技術團隊將設計和開發實踐錨定在使用者意圖和更廣泛的人工智慧社區和社會價值代表中。這些參與者進一步幫助將特定於背景環境的規範和價值觀納入系統設計,並且與人工智慧系統一起評估最終使用者體驗。


持續進行的研究和評估將增強用於人類與人工智慧配置的人工智慧風險管理方法。例如,人類獲得授權和受到激勵的程度以挑戰人工智慧系統輸出,尚需要進一步研究。有關人類凌駕於已展開系統中人工智慧系統輸出的頻率和佐證說明資料值得收集和分析之。


附錄D人工智慧風險管理架構屬性

NIST在首次開始研究此架構時陳述AI RMF的若干關鍵屬性。此等屬性維持不變,並指引AI RMF發展。列出供作參考。

AI RMF努力方向:

  1. 以風險為基礎、資源有效運用、鼓勵創新和自發性。

  2. 共識趨向,藉由公開透明過程,發展並定期更新,所有利益相關者都有機會為AI RMF發展貢獻心力。

  3. 使用清晰明瞭語言,廣大觀眾都可理解,包括:高階管理階層、政府官員、非政府組織領導階層,及非人工智慧專業人士者,儘管仍然具有相當的技術深度,人工智慧仍然對從業者有所效用。AI RMF宜於在整個組織之內、組織之間、與客戶之間以及向廣大群眾傳達人工智慧風險。

  4. 提供共通的語言和理解以管理人工智慧風險。AI RMF須提供人工智慧風險的分類法、術語、定義、度量標準和特徵。

  5. 易於使用,且適合風險管理的其他面向。作為組織更廣泛的風險管理策略和過程的一部分,對架構的使用須直觀且易於調適應用,須和其他管理人工智慧風險的方法一致或校正之。

  6. 對涵蓋面廣的遠景、產業和技術領域有利用意義。AI RMF應該普遍適用於任何人工智慧技術,亦適用於特定背景環境的應用實例。

  7. 專注於結果且未硬性規定做法。該架構須提供結果和方法的目錄,而不是敘述一陳不變的要求事項。

  8. 運用並培養現有標準、指引、最佳實務、方法學和各種工具,以管理人工智慧風險,並舉例說明需求之額外改良後資源。

  9. 不自外於法律和法規。該架構須支持組織在適用的國內和國際法律或法規監督制度下運作的能力。

  10. 須為活性的文件。AI RMF須隨時為適用事項更新,包括:人工智慧可信賴性與變化事項所使用的技術、瞭解內容和方法,並特別考慮利益相關者從實施人工智慧風險管理和本架構總體上所學習到的經驗。

詳細內容參見AI RMF 1.0報告原文。