資訊技術 — 資訊技術治理 — 組織使用人工智慧的治理衍生效應(續)
文化和價值觀
治理機構負責定義組織希冀的文化和價值,並照顧到利益相關者、市場及法規機關,以及社會期許組織營運的變化和衝擊。治理機構須警惕日益浮現中的行為指引和國際標準,如:國際人權宣言、約翰尼斯堡永續發展宣言,及其他機構所提供等。參見ISO 26000, 第3.3.2節的相關事項。
組織的任何決定或措施須與其文化和價值觀一致,只不過組織的眾多文化和價值觀係含藏在員工行為和程序之中,一個人工智慧系統不能等同於人類理解的前後環節、一般常識、道德或知識所引導而成的輸出,反而是一個人工智慧系統係基於多模式、多項演算法、或訓練資料而完成足以比擬的結果。
為了上述理由,治理機構應明確其文化和價值觀,並擁有適當的治理機制和政策,以確保該等人工智慧系統的行為能夠受到監督,且在需要時加以矯正。在某些情況下,人工智慧系統的範圍和衝擊須受到限制,並須通過人為行動加以補充,以便能夠確保治理的政策。如何做到這一點將視情況而異。同等作用情況,一個人工智慧系統可以協助識別人類做出決策存在缺陷之處,如:不恰當的偏置或歧見,或理由不足,或排除原因不明等;從而提供組織的深刻意見,有助治理機構隨後可以處理。此種方式會給組織治理帶來未來的挑戰。
根據擬使用的人工智慧系統的性質和宗旨,組織可能需要明確監督該等系統,以確保它們符合組織的文化和價值觀。 治理機構可以採取「文化和價值委員會」或「倫理審查委員會」之類的形式。需視察事項可以包括當批准敏感性或高風險的人工智慧系統專案,或須符合某些逐級昇高的準則之前需要進行審查。組織在該方面的其他政策可能需要在人工智慧系統內使用技術管制,以協助符合該等政策。關於使用人工智慧有關的倫理和社會關切的更多資訊,參見ISO/IEC TR 24368(參見另一專文介紹)。
合規性
合規性義務
為確保組織達到合規性義務,組織須建立持續合規過程,若須有效果,合規過程係搭配組織領導力並融入組織文化。如ISO 37301般的符合性管理系統說明該等要求,協助組織展現承諾達到係稱義務,並符合利益相關者期待。
治理機構須尋求確保作用,由管理階層形塑及維持組織使用的任何人工智慧系統達到組織的合規性義務,避免違反合規性。違反的例子如:定價機制觸犯反托辣斯法律要求,或者用於訓練的資料觸犯公民權,或帶有歧視性。
合規性係關注到營運人員的行為。人工智慧可以減少某些情況時人類行為的作用,從而減少由於人類行為不合規引起的風險。因此,人類因素便被拉高或轉向承擔設計、開發和實施人工智慧系統的人們。該項轉變在認知訓練和監督方面擺出全新的挑戰。
在組織前後環節與合規性義務裡檢查人工智慧的角色,治理機構須注意下列事項:
- 關於人工智慧的使用與衝擊之於利益相關者期待,尤其是確保遵循既有政策及合規義務;
- 關於組織內使用人工智慧在文化上的衍生效應,如:人工智慧系統漸漸拉高複雜性,使得人員只好假設該系統運作無誤。組織須建立適宜過程以確證某個人工智慧系統的產出;
- 人工智慧在組織的使用範疇;
- 人工智慧對組織的合規義務之衝擊;
- 因使用人工智慧而須變更組織的風險偏好;
- 既有的組織視察過程、結構與管制用於處理人工智慧特定面向的方式;
- 使用人工智慧之於組織當責性架構的衝擊;
- 須評鑑既有的組織合規管理系統以面對使用人工智慧衍生效應,如:設計上和解決方案可能難以解釋或者須經常變更等;可以包括諸如:擴充合規政策、或擴大定期風險評鑑;
- 個別人員是否受到使用人工智慧系統的設定限制或由之產出個人資料的影響,如:法律或組織政策。
採用合規管理標準得以使組織以綜合方式在其管理系統上覆蓋具體的管理要求,例如安全性、品質和隱私。如此得以在管理系統中增加因使用人工智慧發生的附加合規措施更加容易。
合規管理層級須特別考慮下列事項:
- 擴展合規性流程以考慮人工智慧系統的速度、範圍或精巧性,如:增加監督層次或頻率
- 要求由人類重新評估人工智慧系統做出的決定
- 增加管制以確保人工智慧系統維持本來要求的合規狀況
- 確保建構模型或供訓練用資料係符合政策
- 使用人工智慧監督其他人工智慧系統,及可要求另加監督或警示。
詳細內容參見標準原文。
(未完,待續)
沒有留言:
張貼留言