2023年12月14日 星期四

ISO/IEC TR 24368 人工智慧—倫理與社會關切事項概觀

ISO/IEC TR 243682022

Information technology — Artificial intelligence — Overview of ethical and societal concerns

資訊技術—人工智慧—倫理與社會關切事項概觀 

 介

人工智慧 (AI) 有可能徹底改變世界,並為社會、組織和個人帶來過多利益。然而,人工智慧亦可能帶來鉅大的各種風險與不確定性。因此專業人士、研究人員、法規主管機構和個別人等皆須覺察到人工智慧系統和應用相關的倫理與社會問題。

人工智慧中潛在的倫理關切事項範圍很廣。人工智慧中的倫理與社會關切事項例子包括:隱私與安全漏洞引致歧視性結果,肇致人類自主性受到衝擊。倫理與社會關切事項的來源包括但不限於下列事項:

  • 未經授權的收集、處理或披露個人資料的手段或措施
  • 擷取與使用帶有偏見、不明確或它類不具代表性的訓練資料
  • 機器學習 (ML) 做出決策不透明或文件不充分,通常稱為缺乏可解釋性
  • 缺乏可追溯性
  • 對技術展開後的社會衝擊之認識不足。

人工智慧可能不公平地運行,尤其在使用帶有偏見或不適當的資料進行訓練時,或者當模型或演算法不適合係屬目的時。演算法中的既存值或帶入值、及人工智慧系統和應用程序在挑選問題事項加以處理時,可能會有意地或無意地按照開發人員和利益相關者自己的世界觀與認知偏見成型。

人工智慧的未來發展可以擴展現有的系統與應用,以成長到全新領域,並提高該等系統所具有的自動化水準。處理倫理與社會關切事項仍未隨著人工智慧的快速發展步調。寄望未來,人工智慧設計者、開發人員、展開人員和使用者得從以下各方面的靈活投入獲得益處:倫理架構、人工智慧原則、風險緩解工具與方法、倫理因素評估、最佳測試實務、衝擊評鑑和倫理審查。此番工作可以經由具包容的、跨學科的、多樣化的及跨部門的方法處理之,包括所有人工智慧利益相關者,並輔之以處理人工智慧倫理與社會問題的國際標準,包括國際標準組織聯合技術委員會 ISO/IEC JTC 1 SC 42 的工作產出。


註:此文並未涵蓋該文件全部事項,相關內容務須參閱各項文獻原本及最新版次。此處係閱讀隨筆,僅供個人學習,非供印刷或潛在意圖出版。

© All Rights reserved.


1 範圍

此份上層結構標準概述人工智慧倫理與社會關切事項。此外,本文件亦;

  • 提供該領域的原則、過程及方法的相關資訊;

  • 面向技術專家、法規主管機構、利益團體和大部份的社會;

  • 無意倡導任何特定的價值觀(價值觀系統)。

該標準概述了處理人工智慧倫理與社會關切事項所引起的問題之相關國際標準。


2 規範性參考文獻

ISO/IEC 22989,資訊技術 - 人工智慧 - 人工智慧概念和術語

3 術語和定義

3.1 agency機構

能夠定義自己的目標並對其採取行動

3.2 bias偏見

與其他物體、人或群體相比,某些物體、人或群體的處理(3.13)方式存在系統性差異

3.3 data management 資料管理

凡是有關於資料與/或資訊的創建、生產、分發、儲存、處置和使用電子化媒體的軌跡追蹤過程,包括間接相關過程

3.4 data protection 資料保護

為避免未經授權訪問和使用資料而採取的法律、行政、技術或實體措施

3.5 equality 相等

維持在等同的狀態,特別是在地位、權利或機會方面

3.6 equity均等

實務上消除人類群體之間可予避免或可予補救的差異,無論該等群體依定義係為社會地、經濟地、人口地或地理地劃分方式。

3.7 fairness 公平性

係為尊重既定事實、社會規範和信仰的處理(3.13)、行為或結果,未受到偏袒或不當歧視的決定或影響

3.8 cognitive bias認知偏見

human cognitive bias人類認知偏見

人類處理和演釋資訊時發生的偏見 (3.2

1:人類認知偏見影響判斷和做出決策。

3.9 life cycle壽命週期

某個系統、產品、服務、專案或其他人造實體從概念到除役的演變

3.10 organization 組織

公司、社團、商號、企業、主管機關或機構、個人或多人,或以上諸項的部分或組合,無論是否結合,公有或私有,凡具備自身的職能和行政管理者皆得稱之

3.11 privacy隱私

實體(通常是某個人或某組織)的權利,代表自己行事,決定其資訊的保密程度

3.12 responsibility 責任

採取行動或做出決定以達到所要求結果的義務

3.13 treatment處理

某種行動,例如:感知、觀察、表徵、預測或決策

3.14 safety 安全

期望一個系統在設定的條件下不會導致某種狀態,危及人類生命、健康、財產或環境

3.15 security 保全

與定義、實現和維護機密性、完整性、可獲得性、責任制、真實性和可靠性有關的方面

1:得以認為產品、系統或服務是保全的情況,僅當其使用者信賴它以預期的方式運行(或將會運行)。通常是在評鑑實際或感知威脅的背景下所考慮的。

3.16 sustainability 可持續性

全球系統的狀況,包括環境、社會和經濟方面的狀況,其中既滿足當代人的需要,又不損害子孫後代滿足其自身需要的能力

3.17 traceability追溯性

能夠識別或恢復物品於特徵事項上的歷史、出處、應用、用途和位置

3.18 value chain價值鏈

經由各項活動或參與者所創造或收獲價值的範圍,展現形式為產品或服務

4 概述

4.1 一般

倫理與社會關切事項是開發和使用人工智慧系統與應用程序的一個因素。考慮到前後環節、範圍及風險可以減輕不良的倫理與社會後果和傷害。不良的倫理與社會後果和傷害風險不斷增加的領域示例如下:

  • 財務傷害;
  • 心理傷害;
  • 對身體健康或安全的傷害;
  • 無形資產(例如:盜竊智慧財產權、公司聲譽受損);
  • 社會或政治制度(例如:干擾選舉、失去對當局的信任);
  • 公民自由權(例如:不合理的監禁或其他懲罰,審查制度,違反隱私權)。

在未考慮上述情況下,即使技術觀點看來係表現完美,技術本身仍有風險,可能肇致重大的社會或其他後果,並可能產生非預期的或本可避免的成本。

4.2 基礎來源

各種來源專門或以一般方式處理倫理與社會問題。其中一些來源臚列於此。

首先,ISO82號指導為標準制訂者提供指引,以考慮其活動中的可持續性,並特別參考ISO 26000的社會責任指引。因此,本文件描述社會責任于可信賴人工智慧標準化相關的活動提供資訊。

ISO 26000為組織提供關於社會責任的指引。基於以下的基礎實務:

  • 認識出組織內的社會責任;
  • 進行利益相關者的識別和參與。

若沒有資料,就不可能開發和使用人工智慧。因此,資料和資料品質的重要性使可追溯性和資料管理成為使用與開發人工智慧的樞紐思量。下述基於資料的元素是創建倫理和可持續人工智慧的核心:

  • 資料收集(包括此類資料收集的手段或措施);
  • 資料準備;
  • 可追溯性監督;
  • 存取與共享控制(身份查證);
  • 資料保護;
  • 儲存控制(添加,更改,刪除);
  • 資料品質。

該等元素會影響可解釋性、透明性、安全性和隱私性,尤其當個人身份資訊生成後、受到控制或經過處理後。對於使用或開發人工智慧系統和應用程序的組織,可追溯性和資料管理是必不可少的考量因素。

ISO / IEC 38505-1係考慮資料價值、風險和約束而制約組織做出決策與程序時如何收集、儲存、分配、處置、報告和使用資料。當,從資料挖掘或機器學習活動獲得的結果,做出通報和決策時,係視為另一種形式的資料,亦應遵循相同的資料制約準則。

此外,與人工智慧系統和應用程序相關的倫理與社會問題的描述,可以基於各式各樣人工智慧相關的國際標準。

ISO / IEC 22989提供標準化的人工智慧術語和概念,並描述人工智慧系統的壽命週期。

ISO / IEC 22989定義了參與人工智慧系統開發和使用的利益相關者集合群。ISO / IEC 22989描述人工智慧系統價值鏈中的不同人工智慧利益相關者,包括:人工智慧提供者,人工智慧生產者,人工智慧客戶,人工智慧合作夥伴和人工智慧主題。ISO / IEC 22989還描述了該等類型的利益相關者族群裡各種配屬的角色。在本文件中,我們將所有該等不同利益相關者類型率皆稱為利益相關者。

ISO / IEC 22989將「相關的監管和政策制訂機構」作為人工智慧主題的配屬角色。目前尚未普遍定義人工智慧的法規主管機構角色,但是已經提出一系列建議事項,包括由各個利益相關者任命的各類組織;行業代表機構;自行任命的公民社會參與者;或由國家立法或國際條約建立的機構。

ISO / IEC 22989涵蓋前述所有功能,皆有助於描述特定於人工智慧的倫理與社會關切事項。

由於人工智慧有可能影響廣泛的社會利益相關者,包括受環境變化影響的後繼子孫輩(間接受影響的利益相關者)。例如:通過汽車自動駕駛技術擷取人行道上的行人圖像,或者無辜平民可以受制於旨在調查可疑罪犯的警察監督設備。

ISO / IEC 23894提供在開發和應用人工智慧技術與系統期間組織面臨的管理人工智慧相關風險的準則。遵循ISO 310002018結構,提供人工智慧系統的開發與使用過程產生的指引。ISO / IEC 23894描述的風險管理系統有助於陳述本文件中的倫理與社會關切事項。(另文介紹

ISO / IEC TR 24027描述人工智慧系統中偏見的類型和形式,以及如何測量和減輕偏見。ISO / IEC TR 24027還描述了人工智慧系統中公平性的概念。偏見和公平性對於描述特定於人工智慧的倫理與社會關切事項很重要。

ISO / IEC TR 24028介紹了人工智慧系統的透明性和可解釋性,係可信賴性的重要支撐事項,並且可能影響倫理與社會的關切事項。

ISO / IEC TR 24030描述24個不同應用域中124個人工智慧應用用例的集合。該等案例識別出人工智慧系統和應用程序的利益相關者、利益相關者的資產和價值,以及威脅和脆弱性。某些案例描述了社會和倫理關切事項。

ISO / IEC 38507提供有關參與人工智慧系統開發和使用組織的治理影響的指引。該指引是補充相關國際標準中治理措施的定義,即:

治理是組織能夠處理其參與人工智慧系統和應用程序的倫理與社會影響的關鍵機制。

ISO / IEC 27001規定了在組織前後環境建立、實施、維護及持續改進資訊安全管理系統的要求。尚包括針對組織需求的評鑑與處理資訊安全風險的要求。ISO / IEC 27001中規定的要求是本質上共通適用,可以作為人工智慧前後環境系統化資訊安全管理的基礎。由此而可能會對人工智慧系統與應用程序中的倫理與社會問題下游產生衝擊。 ISO / IEC 27001搭配補充補充標準ISO / IEC 27002:網路保全和隱私保護,關於資訊保全標準和資訊安全管理實務,包括:控制事項的選擇,實施及管理,為組織提供指引。

ISO / IEC 27701ISO / IEC 27001ISO / IEC 27002的擴展形式提供了建立、實施、維護及持續改進隱私資訊管理系統的指導,用於組織內的資料隱私管理。ISO / IEC 27701可以用作人工智慧前後環節的隱私資訊管理基礎。

4.3 倫理架構

4.3.1概述

人工智慧倫理屬於應用倫理學的其中一個領域。這意味著原則和練習很少會是倫理理論的應用結果。但是,許多密切相關的挑戰事項涉及傳統之倫理概念與問題,例如:在現有倫理架構中可以處理隱私、公平性及自治性。有關更多可能的倫理架構,請參見IEEE白皮書:「倫理一致的設計: 透過自主和智慧系統優先考慮人類福祉的願景」(英文版)。該倫理架構清單既非詳盡無遺匯整全部事項,亦非相互排斥。因此,超出該範圍列出的倫理架構亦可以考慮。

4.3.2 美德倫理

美德倫理學是一個倫理架構,規定了旨在追求的美德集合體(例如:尊重、誠實、勇氣、同情心、慷慨),與旨在避免的惡習集合體(例如:不誠實、仇恨)。美德倫理具有靈活和令人渴求的力量。它的主要缺點是沒有提供任何具體的實施指引。若宣稱人工智慧系統設計上帶有「誠實」性質時,只有當能夠實現該美德在營運實務的機制之情況下才有意義。但是,只要警覺其技術侷限性,美德倫理就可以作為確定AI的應用是否反映人類美德的有用工具。

4.3.3 功利主義

功利主義是一個倫理架構,係利益最大化且傷害最小化。選擇功利主義方案是考慮其產生最大利益,而對所有涉及之利益相關者造成最小量的傷害。一旦邏輯地解釋了問題的倫理考量,功利主義的處理方式就具有普世性理解和直觀地實施的優勢。功利主義的主要缺點是功利主義架構為了整體利益考量允許損害某些人的利益。例子包括功利主義支持謀殺的手推台車問題,或在醫院實施器官移植患者的例子,功利主義支持解剖健康的捐獻者,將其器官移植到多個患者身體裡。此外,許多倫理考量究事項難以量化(例如:尊嚴)或主觀,係對某一個人有利的事情可能對另一個人不利。倫理方面的考量事項變異性很大,以至於很難相互權衡,例如:環境污染對應到社會真實情況。此外,功利主義作為一個架構是結果主義的一種形式,意即「由結果回頭支持實施的手段」的學說。結果主義支持創建解決方案獲得淨利益,但不要求該等解決方案在倫理上起到相應作用,例如:採取不偏不倚的方式。

4.3.4 義務論

義務論是一個倫理架構,通過已定義的職責或規則集合體評鑑倫理。做出此類決定的特定機制是規則或編纂的規範集合體,可以在當前進行分析,而無須計算該等活動事項可能發生的後果。此類規則的一個範例是公平性中的「機會相等」。機會相等意指,有資格獲得某種機會的人有可能相等地能夠去做,而不論其所在的社會團體屬性。義務論的主要缺點是,這種普世適用規則在實踐中可能難以得到,並且在跨前後環節的設置條件或高度變化型情況下展開時可能相當脆弱。

5 人權實踐

5.1 概述

《世界人權宣言》概述的國際人權、《聯合國可持續發展目標》、及聯合國商業與人權指引原則,皆是人類生而應有的基本道德原則,僅因身為人類。它們可以作為指導公司圍繞AI系統和應用程序責任的指引架構,成為政策和技術評鑑更成熟的架構,並從國際承認情況中受益。係稱國際人權還可以提供執行盡職調查和衝擊評鑑的既定程序。ISO / IEC 38507討論組織內人工智慧治理的人權衍生影響。

支持6.2中提出的許多主題,諸如:護理倫理或社會公義之類的架構,包括主題:隱私、公平和非歧視、促進人類價值觀、安全和保障以及對國際行為準則的尊重。此外,國際法和法律原則的許多來源可以分別補充若干主題。包括但不限於以下內容:

該等來源可以從其目標中理解,即加強有關商業和人權的標準和實務,並為受影響的個人和社區取得切實成果。相關問題包括組織盡職調查以識別和減輕人權衝擊。在人權受到組織人工智慧活動影響的地方,須以清晰、可獲取、可預測和公平的機制加以處理和調解申訴。

人工智慧對公民和政治人權的潛在衝擊的一些例子包括:

  • 生存權、人身自由及安全權(例如:使用自主式武器或人工智慧作動的侵入性資料收集實際做法);
  • 見解、表達和獲取資訊的權利(例如:使用透過人工智慧過濾的或合成的數位內容);
  • 法律之前不受歧視和相等權的自由(例如:受到使用人工智慧協助的司法風險評鑑演算法、前瞻性預防犯罪或金融技術的預測性警察實務工具的衝擊);
  • 不受隱私、家庭、住家或通訊的任意干擾(例如:未經授權的、基於人工智慧的手段和措施用於收集敏感的生物特徵和生理資料);
  • 受教育權和期待工作權(例如:使用人工智慧招募人員就職或提供獲得教育和訓練)。


6 主題與原則

6.1 概述

補充在第5節中提到的人權實務,人工智慧原則還可以幫助指引組織以負責任的方式開發和使用人工智慧。該等原則的目的是支持組織超越不傷害性,且專注於技術的慈善性。例如:設計旨在促進社會和諧並服務於該特定功能的人工智慧,而不僅僅是避免傷害。

該等原則不僅涵蓋人工智慧提供者和生產者及其關於人工智慧系統的預期使用。在向人工智慧客戶和其他利益相關者提供人工智慧系統時,重要的是要檢查其潛在的錯誤使用,濫用和不當使用。正如ISO / IEC TR 240282020,第9.9.1節所強調者,其中包括:

  • 對人工智慧系統的過度依賴導致負面結果(錯誤使用);
  • 對人工智慧系統的依賴不足導致負面結果(不當使用);
  • 在人工智慧系統未設計過及測試過的地區使用或重新利用人工智慧系統而產生的負面結果(例如:濫用)。

人工智慧系統關於不當使用及濫用特別敏感,因為它們模仿了人類的能力。當某個系統似乎像人類一般,但缺乏人類會考慮的前後環境時,使用者可能會濫用或不當使用之。這種濫用或不當使用可能源於對其信任程度太多或太少。例如:具有自動駕駛、醫療診斷或批准貸款。

針對該等關切事項,預期政府監督或嘗試經由產業界自我監督,國際社會提出了數個人工智慧原則集合體。該等集合體已記錄在各種出版物中,見該標準的附件A

此小節遵循伯克曼.克萊恩中心(Berkman Klein Center原則內涵的人工智慧報告提出的結構,通過將人工智慧原則分組為不同主題,請參見該標準附件第A.1節。該等主題源於倫理關切事項而嘗試以該等原則處理之。該等各主題組的各種原則之間可能存在顯著差異,或甚至相互矛盾。特定於人工智慧的主題係與ISO 26000中的主題相互配合,ISO 26000規定組織旨在以對社會負責的方式行事時須加以考慮的原則。

註:參見部落格短文介紹伯克曼.克萊恩人工智慧原則報告

6.2 關鍵主題和相關原則的描述

6.2.1 當責

當組織對其行動對利益相關者、社會、經濟及環境的衝擊承擔責任時,就會發生當責性[參見歐盟執委會數位評估報告2019]。當責性意味著組織接受適當的仔細檢查並接受該檢查的相應責任。因此,對人工智慧決策負責意味著確保組織能夠承擔代表組織做出決策的責任,並瞭解組織不會免除錯誤決策的責任, 例如:人工智慧機器學習輸出。

當責性明確提出組織及其代表應負責相應產生的負面後果之衝擊,意即包括任何人展開人工智慧技術基於人工智慧系統和應用程序的設計、開發及使用或錯誤使用。當責性還集中焦點和注意力關於考慮人工智慧系統和應用程序的演進本質而可能產生的非預期後果,難度在預測一旦展開後,如何使用和重新使用人工智慧系統和應用程序。如果沒有明確的當責性要求,各項約束和諸多界限就不再發生束縛作用,潛在的傷害也就未能受到關注。

對組織決策的當責性終歸是指揮和控制該組織的一群人的責任。但是,當責性通常委託給適當的負責方。因此,可以訓練員工瞭解其工作的含義涉及開發、展開或使用人工智慧工具,並當責其所屬責任範圍。他們還可以瞭解在組織或工程前後環境中應採取哪些措施來確保做出適當的決定。例如:組織有責任制訂非歧視性和透明的政策。工程師有責任確保通過開發和使用非歧視性、透明且可解釋的演算法來開發遵循該等政策的人工智慧系統和應用程序。

當責性提供必要的約束性,協助限制潛存負面結果,為組織建立現實可行的風險治理。兩相結合後,即有助於定義如何確定責任的優先順序。該主題涵蓋的某些方面如下示:

  • 與利益相關者合作,評鑑系統在設計中的潛在衝擊;
  • 確證是否實際上已經達到利益相關者的需求;
  • 查證人工智慧系統是否按預期方式工作;
  • 確保整個人工智慧價值鏈中資料和演算法的可追溯性;
  • 進行第三方稽核並根據其查核結果採取行動;
  • 提供挑戰人工智慧決策的途徑;
  • 在無法挑戰或申訴時補救錯誤或有害的人工智慧決策。


6.2.2 公平與非歧視

公平和非歧視的主題[參見歐盟執委會自動化資料處理報告2018] [參見歐盟文件,建立以人為以人工智慧為中心的信任2019]旨在確保人工智慧對不同社會群體的人們,特別是對於那些遭受到剝奪社會、政治或經濟權力的人們,在地方,國家和國際前後環境中,仍維持良好運作。該等社會群體因前後環境而異,包括但不限於那些需要保護免受基於性別、種族、膚色、族裔或社會出身、遺傳特徵,語言、宗教或信仰、政治或任何其他見解,少數民族成員、資產、出生、殘疾、年齡或性取向。該主題涵蓋的某些方面如下示:

  • 減輕對不同群體成員的不必要偏見;
  • 確保以反映不同群體成員的方式收集和運用訓練資料和使用者資料;
  • 以公平,均等和相等方式對待不同群體的成員;
  • 考慮人工智慧可能對不同群體的成員發生不同地衝擊;
  • 確保不同群體的所有成員享有人類發展和訓練的平等可能性;
  • 確保在個人做出的資料收集和處理,系統設計,模型訓練和其他開發決策期間減輕人類認知或社會偏見的衝擊;
  • 允許利益相關者在發現不公平的情況下對某項決定提出申訴。

6.2.3 透明性與可解釋性

透明性:指理解人工智慧系統工作原理和決策過程的結果可以被人類使用者理解,從而可以洞悉其決策過程和基礎演算法。

可解釋性:涉及人工智慧系統決策過程提供令人滿意、準確和有效的結果或建議,可以被營運者或操作者理解為什麼人工智慧系統做出這樣的決策。

資料、系統和人工智慧的商業模型須為透明的,透明性與可解釋性係幫助利益相關者瞭解系統的決策過程、識別偏見、確保當責性、與倫理準則保持一致、及促進法規遵從性,提高使用者對系統的信任。另外,亦可發現系統的偏差、診斷錯誤、改進模型和維護倫理準則,促進系統的合理使用,幫助開發人員瞭解系統的優勢和劣勢,促進系統的改進。

實現透明和可解性的措施包括:

  • 使用可解釋的演算法幫助人類使用者理解系統的決策過程。
  • 提供可視化工具幫助人類使用者更直觀地理解系統的決策過程。
  • 提供解釋性報告可以幫助人類使用者瞭解系統的決策結果。

具體到人工智慧系統的開發和使用中,議採取以下措施

  • 在系統設計階段就考透明性和可解
  • 在系統開發過程中使用可解的演算法和工具
  • 在系展開後提供透明性和可解性的功能

例如:在開發一個用於醫療診斷的人工智慧系統時,可以使用可解釋的演算法,例如決策樹或規則表。在系統開發過程中,可以使用可視化工具來幫助開發人員理解系統的決策過程。在系統展開後,可以提供解釋性報告來幫助醫生理解系統的診斷結果。

6.2.4 專業責任

在人工智慧開發和實施中體現倫理操守和專業知識。

人工智慧和學習專業責任包括下方面:

  • 透明度和可解:人工智慧和機器學習系統的決策過程和結果必須是透明的和可解釋的,以便使用者能夠理解系統的運作方式,並對系統做出的決策進行評估。
  • 公平性和非歧視性:人工智慧和機器學習系統必須公平地對待所有使用者,不因種族、性別、宗教等因素而產生歧視。
  • 安全性和可靠性:人工智慧和機器學習系統必須安全可靠,防止被惡意利用。
  • 私保:人工智慧和機器學習系統必須保護使用者的隱私,避免未經授權的訪問或使用使用者資料。

實現人工智慧和學習專業責任,可以取以下措施:

  • 制訂相法律法:政府可以制訂相關法律法規和標準,規範人工智慧和機器學習的開發和使用。
  • 自律:人工智慧和機器學習行業的企業和組織應加強自律,制訂行業規範,遵守職業倫理。
  • 教育:提高公眾對人工智慧和機器學習的認識,增強公眾的參與和監督。

6.2.5 促進人類價值觀

將同理心,公平和尊嚴等價值觀納入人工智慧技術,以造福社會。

  • 人工監督:讓人類在人工智慧系統運行和學習時不斷提供回饋和監督。得以矯正非預期的不良行為。
  • 價值學習:開發人工智慧,通過研究行為和倫理困境來瞭解人類價值觀和倫理規範。這為人工智慧構建了更細致入微的理解。
  • 保持目標:創建能夠理解和採用人類目標的人工智慧目標系統,同時避免隨着系統變得更強大而偏離該等目標。
  • 透明度和可解釋性:設計人工智慧系統,其邏輯、資料源和決策對人類來說是可以理解的。此點亦支持當責性。
  • 控制和遏制:構建具有已定義行為制約的人工智慧系統,並在檢測到異常行為時執行安全切斷。從而抑制傷害。
  • 國際合作:通過國際合作,共同制訂人工智慧和機器學習的倫理規範,促進人工智慧和機器學習的良性發展。
  • 價值觀一致:開發尊重人類價值觀一致的人工智慧系統是實現人工智慧積極潛力的關鍵里程碑。

6.2.6 隱私

隱私係保護個人資料並確保人工智慧操作中適當的資料治理機制,兼顧資料的品質和完整性,以確保資料的機密性且可以合法取用。

人工智慧系統運作時關鍵的資料前後文字內容既包括使人工智慧工具能夠瞭解其環境的掃描機制,也包括資料本身的性質以及如何使用資料創建人工智慧功能。例如:人工智慧系統有能力挑選和識別一個從輸入資料集的角度來看無從識別的某個人。由於人工智慧演算法模型的特性,這種識別甚至可能是偶然發生的,使相應的某個人面臨不可預測的後果。以溢出資料效應為例,對於希望使用個人資料的組織來說,傳統的知情同意僅有微弱作用,因為在溢出資料收集中沒有獲得當事人同意;溢出資料的受害者對此事沒有發言權,因為他們甚至不知道自己涉及其中機制。

人工智慧系統的三個領域存在關鍵的隱私問題,

  • 人工智慧的輸入資料:為人工智慧模型提供資料所輸入的資料,包括個人與非個人的資料,從資料品質、資料去標識化能力、資料最小化以及將資料分離到生產、測試和訓練資料的能力等。
  • 網路內的實際人工智慧:黑盒子階段,可能是最難詳細解釋的領域。主要有兩個原因:首先,這是機器學習和推理模型發揮作用的階段,有時很難解釋。其次,鑒於圍繞該等通常對業務敏感的企業過程的商業重要性,任何解釋的嘗試(除非有法律義務)都可能洩露商業秘密。包括當責性、透明度、解釋人工智慧的能力和配置保護等。
  • 人工智慧的輸出資料:即使因為吾人知道並控制了輸入資料,並且知道[黑盒子]中執行了哪些作業,輸出結果仍然會產生驚喜和新資料。該等資料在性質上也有可能變得敏感,從而增加考量所需的屏蔽、保全及保護措施。關於資料品質、訪問管制及一般資料安全性方面,考慮的規則係與輸入資料相同。但是,另有其他要求,例如通知使用者有關人工智慧的使用、提供解釋結果的能力,以及大多數人感興趣的是,在構建資料循環之前需要獲得授權。


[資料]是一個廣泛的話題,尤其是在隱私領域。即使是個人資料,根據定義通常被認為是偏狹或為特定需求打造的,亦為多變化及多樣化的術語。 在人工智慧方面,資料的使用範圍擴大到[資料集類型]。在人工智慧方面,組織處理三種不同的類型:生產式資料、合成式資料和混合式資料。

  • 生產式資料:是從已展開的系統或網路輸入到人工智慧的實際實時資料。亦即需求發揮作用的地方,它提供了管理儲存、使用和結果的嚴格規則;很大程度上是因為該等資料集可能包含個人資訊。
  • 匯整式資料:顯示與生產資料相同的屬性,但不包含真實訂閱者資料的資料,並且是人工生成的。從隱私的角度來看,該等資料可以採用更低階的風險等級進行處理,因為它不會直接或間接識別個人。該等資料通常用於訓練、測試和查證人工智慧的結果
  • 混合式資料:生產式資料和混合式資料的組合。此類資料具有一定的隱私隱患,例如個人的可識別性。另一方面,該等資料對於模擬現實生活中的生產場景也非常有用,因此可用於訓練、測試和查證人工智慧的結果。

上述所有資料集都可以單純基於樣本來源與內容帶有自身的侷限和偏異。例如:如果一個資料集包含的男性工程師數量多於女性工程師數量,則可能會導致帶有偏差的結果,從隱私的角度來看,該等樣本會損害資料集中的一小部分樣本。在評估隱私影響時,始終需要考慮這一點。

識別資料集以及一般情況下的人工智慧所附帶的固有隱私風險的最有效方法是執行隱私影響評估 Privacy Impact Assessment PIA。然而,由於人工智慧的流動本質,使用人工智慧時另外採用下述評估隱私的方法

  • 評估人工智慧用例:應描述預期的用例,包括所需的輸入資料、資料處理操作和預期結果。
  • 演算法影響評估:應從隱私角度評估演算法,並記錄演算法可能產生的隱私影響。在組織內部列出須評估事項,以幫助指引方向。
  • 設計選擇和基本原理:應該解釋為什么在開發人工智慧系統時會做出某些設計選擇。解釋應涵蓋有關處理哪些資料以及如何在系統中處理該等資料的詳細資訊。

輸出查證層次結果:按照基於風險的方法,描述結果是否以及在哪些條件下可能與用例的預期不一致。

6.2.7 安全和保全

安全及保全須優先考慮個人的安全和保護,使其免受潛在的人工智慧風險或傷害。

人工智慧系統在其整個壽命週期內正常或可預見的使用或誤用條件下,保持穩健性,意即能夠承受或克服不利條件,防止損害擴大並確保損害之最小化,包括數位安全風險,保持可信賴性、準確性、可靠性、可重複性及可預測性,不宜造成不合理的安全風險,包括實體安全。同時也需訂定完善的備援計畫,以利問題出現時得以妥適因應。

許多新興數字技術的關鍵特徵是網路的連結性。人工智慧驅動的產品帶有連結性可能會使相應的產品成為通往網路安全風險的大門,從而挑戰傳統的安全概念。例如:具有某些軟體安全漏洞的人工智慧助手可能會使惡意第三方未經授權訪問連結到人工智慧助手的控制系統,從而可能造成安全隱患。如果利用連結性和人工智慧技術的組合來導航交通和處理複雜情況的自動駕駛汽車失去連結,就很容易發生交通事故。人工智慧系統的不透明度(也稱為[黑盒子]特徵)表示無法追溯計算機演算法為做出特定決定而採取的步驟。這增加了與人工智慧技術相關的風險水準,因為如果製造商無法快速清楚地識別某些故障,產品可能會對財產造成重大損失,甚至造成使用者人身傷害。

實現預期結果的一個可能途徑是要求人工智慧演算法的開發人員有義務在發生事故時披露資料集的設計參數和元資料,在整個設計開發過程中須確保可追溯性,供後續分析和查詢之需。一般公眾安全利益係凌駕製造商的商業利益。人工智慧系統的生產者有義務預測資料的準確性及其與產品安全的相關性。例如:設計用於檢測特定物品的基於人工智慧的系統可能難以在照明光線不足的狀況區分待測物品。

一些人工智慧驅動的產品被認為能夠通過感知其環境並執行某些功能而相對自主地行動,而無需遵循一組嚴格的已確定的指令。該等自主產品的「行為」可能會產生意想不到的結果。人工智慧產品在放入市場前進行風險評估時可以預先確定人工智慧產品的未來「行為」,人工智慧產品的自主行為不應引起任何特定的法律漏洞。如果由於人工智慧系統的自主行為而修改了產品的可預見和預期用途,影響了對適用安全要求的遵守,則可能需要對人工智慧系統進行新的風險評估。

如果生產者意識到放入市場的產品存在影響安全的風險,他們必須立即通知主管當局並採取行動防止使用者面臨風險。人工智慧驅動的產品,有可能引入一個事後風險評估程序,重點關注自主行為的安全影響,該等產品在其壽命週期內會發生重要但最初無法預見的變化,例如:產品功能發生變化。相關的安全及保全風險,如:網路攻擊、數位脆弱性、侵蝕資料信任度、政治經濟與社會影響作用、無預警暴力侵害行為等。

6.2.8 技術的人為控制

確保對人工智慧系統的決策和行動進行人為監督和控制。四個可操作屬性:

第一:人類和人工智慧演算法交互的系統應該有一個明確定義的承載倫理情況區域,系統應該在該區域內運行。

第二:系統內的人類和人工智慧代理應該有適當且相互兼容的代表。

第三:歸咎於人類的責任須與人類控制系統的專業能力和權力相互匹配。

第四:人工智慧代理的行為與意識到自己倫理責任的人類的行為之間應該有明確的聯繫。

人工智慧和機器學習技術具有潛在的危險。例如:人工智慧可以用於開發武器系統,機器學習可以用於操縱人類行為。

人類具有倫理價值觀,而人工智慧技術可能無法理解或遵守該等價值觀。例如:人工智慧可能被用來做出歧視性的決定,機器學習可能被用來傳播虛假資訊。

人類可以為人工智慧技術提供更大的創造力和創新能力。例如:人類可以幫助人工智慧開發新的應用程序,機器學習可以幫助人類處理複雜的問題。

管制人工智慧需要採取以下措施:

  • 制訂人工智慧倫理準則。該等準則須明確禁止人工智慧技術的危險用途,並確保人工智慧技術符合人類的倫理價值觀。
  • 建立人工智慧安全保障措施。該等措施須防止人工智慧技術運用危害人類之目的。
  • 加強人們對人工智慧教育和訓練。人們須瞭解人工智慧技術的潛在風險和好處,並學會如何負責任地使用該等技術。
  • 人工智慧的自動化決策須由人類審查,且必要時得予以抉擇是否採用該等決策。

採取以下合宜行動:

  • 政府須制訂人工智慧的管理法律,明確禁止人工智慧技術的危險用途。
  • 企業須建立人工智慧的倫理委員會,負責審查人工智慧技術的展開與應用。
  • 學術界須加強人工智慧的倫理研究,探索人工智慧技術的倫理風險和應對措施。

6.2.9 社區參與和發展

使社區參與人工智慧討論,考慮各種觀點並促進包容性發展。

人工智慧作為複雜的技術,憑藉大量的資料和演算力來訓練模型。社區的參與可以透過提供資料和演算力,有效地協助推動人工智慧進展。此等技術的應用範圍廣泛,需要跨領域的專業知識,以解決現實問題。社區參與也體現在分享知識和經驗,促進人工智慧的應用。然而,人工智慧的發展同時伴隨潛在風險,故社區參與至關重要,以制定規範和政策來監督與規範其安全性與可靠性。目前受限於大多數參與者訪查資料集缺乏對於具體活動的描述,參與度的價值在於與其他價值理念相輔相成。民營部門的共同價值趨向有助於技術架構的一致性,同時也掩蓋了資料集背後的複雜性。

通過建立人工智慧的社區平台,促進社區內的交流與合作,同時舉辦相應的訓練與教育活動以提高參與度。舉辦各項活動不僅有助於制訂人工智慧的倫理和道德規範,引導其健康發展,還可以建立知識分享平台,包括在線社區或論壇,供眾人分享資源和學習最佳實務。通過組織工作坊和訓練課程,得以能夠普及人工智慧知識,促進合作。同時,鼓勵不同行業的人參與,實現多元化的社區參與,促進各領域間的知識交流和合作。經由此類共同努力不僅可以幫助當地社區解決區域問題,更是將人工智慧研究貼近當地需求的重要關鍵。利用人工智慧解釋資料模式,能夠揭示當地問題,供公眾監督,儘可能地最大化人工智慧的社會影響力。

6.2.10 以人為本設計

設計優先考慮人類需求,經驗和福祉的人工智慧技術。

以人為本設計HCD是一種人工智慧設計方法,旨在將人類的需求和價值置於設計的核心,強調人工智慧係為強化人類能力而存在,讓使用者得以做出更明智的決策。人工智慧的社會衝擊是使用者正向體驗的定義事項,但並不是開發人員優先考慮的事項。同時,人工智慧應有相關監督機制以確保人工智慧系統不會侵害人類自主性或是引發其他負面效果。人工智慧發揮預期功能是使用者和開發者共同關切事項。對使用者來說,人工智慧的可理解性之重要性略次於被人工智慧理解。開發者通常認為道德、隱私和安全係重要原則,但並不是使用者回應的關鍵原則。以人為本設計應用於人工智慧的設計,可以幫助確保人工智慧系統的安全、可靠、平等及合乎倫理規範等。

以下是人本設計關於人工智慧的幾個重要理由:

  • 幫助識別和減輕人工智慧系統的潛在風險,例如偏見、歧視和安全漏洞,達到安全和可靠。
  • 幫助確保人工智慧系統對所有人都是公平的,且可以被所有人使用。
  • 幫助確保人工智慧系統是有用的和有益的,能夠滿足人類的需求,並且能夠帶來積極的影響。
  • 設計規範:制定明確的設計規格指引,確保人類的自主權利。人工智慧技術係增強、補充人類的認知、社會和文化技能。融入倫理和社會價值觀,以確保人工智慧符合倫理標準。於整個人工智慧系統壽命週期內皆須尊重法治、人權及民主價值,其中包含自由、尊嚴及自主權、隱私及資料保護、非歧視、平等、多樣性、公平性、社會公義、國際性認可的勞工權益、可獲得性及合乎倫理規範等原則。
  • 開發環境與內容:創建一個支持以人為本設計的開發環境。包括聘請具有以人為本設計技能的人員,並提供必要的工具和資源。將人性化和普及知識納入人工智慧開發過程,利用專家系統解決特定領域的問題。
  • 實施多選擇項:人工智慧系統承擔輔助者角色,僅提供更多資訊以及選擇可能性的設計元素,以增強人工智慧系統的人性化。探索人工智慧的有限度實施,避免過度依賴人工智慧,並促進人類與人工智慧的合作,協助一般民眾積極參與。例如:人工智慧系統提供自然語言互動模式,承擔人類代理事務,幫助人們與人工智慧系統互動。
  • 管制機制:建立監督和透明的管機制及防範措施,使人工智慧系統的作用可循序追蹤和可予解釋,例如:符合設計規範及現今科技水準,宜確保人類擁有最終決策權,能監督其運作。

此等設計有助於確保人工智慧技術的發展符合社會需求,確保由之產生的負面影響最小化。

人本設計人工智慧技術的相關例子如示:

  • 汽車自動駕駛設計:以人為本設計可以幫助確保汽車在安全、可靠和公平的情況下行駛。例如:以人為本設計可以幫助設計師考慮不同群體的需求,例如:幼童、殘障人士和老年人。
  • 在醫療保健領域:以人為本設計可以幫助開發新的人工智慧工具,以幫助醫生診斷疾病和挑選合宜治療方式,有益於患者康復。例如:幫助設計師開發易於使用且均等對應的人工智慧工具,並確保這些工具能夠滿足各式各樣病患需求。
  • 在教育領域:以人為本設計可以幫助開發新的人工智慧工具,配合學生學習進度。例如:幫助設計師開發有趣且有吸引力的人工智慧工具,並確保這些工具能夠滿足初、中、高年級學生的不同需求。

6.2.11 尊重法治

遵守有關人工智慧展開的法律架構和法規。

隨著人工智慧科學取得長足進步,人工智慧技術開始進入數位決策系統,某種程度上取代人類決策者。這種發展的典型例子是利用人工智慧協助法官做出司法判決。然而,在許多情況下,此等技術是一個「黑盒子」,主要是因為人工智慧的複雜性,且因為該種人工智慧尚受到法律保護。社會治理結構愈來愈多地使用此種系統,導致缺乏透明度,以及理解此種人工智慧系統運作的能力盤旋下降,挑戰支撐法治的傳統觀念。

人工智慧尊重法治的重要性在於確保其合法性、合乎倫理,避免損害人權、自主性或非預期效應。與法治相關的原則,如:透明度、公平性和可解釋性等,亦須在設計時納入考慮,採取相關措施,如:

  1. 設計規格宜明確定義遵守法規的技術要求。
  2. 開發環境宜建立符合倫理和法律的開發環境、監督人機混合系統。
  3. 實務上宜嵌入可解釋人工智慧技術,以促進透明度和理解人工智慧系統運作,避免複雜技術的不可知現象或解釋困境。
  4. 控制機制宜設計監督功能以防止侵害人權或引發非預期效應。
  5. 測試與第三者驗證人工智慧系統宜符合社會軌範評鑑、產業界應用貼近實務多樣性且顧及水平展開時的變異成份。

聯合國教科文組織全球法官倡議透過與合作夥伴開發出版品、工具合集、網際網路線上課程與實地訓練,培養國際與國家司法人員應對人工智慧技術帶來的新挑戰,並保護基本人權與自由表達。

國際上各國的司法系統面對處理有關人工智慧對人權、監督及責任等衝擊的法律問題。司法系統也在司法決策過程中使用人工智慧系統,這引起了人們對自主生成式或人工智慧系統決策的公平性、當責性和透明度的擔憂。

世界各地的許多司法系統,包括司法部門、檢察部門和其他特定領域的司法機構,已經在刑事司法領域探索人工智慧的潛力,提供調查援助和自主生成或促進決策過程。然而,人工智慧的使用帶來了一系列需要解決的挑戰:從模式辨識到倫理原則、基於人工智慧的演算法做出帶有偏見的決策、透明度和當責性。例如:自主學習式演算法可以透過某些資料集(如:往昔的決策、臉部圖像或視訊資料庫等)進行訓練,該等資料集可能包含帶有偏見的資料,而這些資料又往往是應用程式使用在防治犯罪或公共安全目的,從而導致做出帶有偏見的決策。經由多方利益團體參與下,該組織已舉辦三場網路研討會,如下示:

駕馭生成式人工智慧時代的智慧財產權:教育司法行為者的關鍵作用

如何確定人工智慧生成的證據在法庭上的可採性?

探討虛擬和擴增實境對法庭的影響

另有該課程提供的6個不同章節,供司法機構相關人員登錄參與學習:

人工智慧與法治1:為什麼數位轉型和人工智慧對司法系統很重要

人工智慧與法治2:司法系統中人工智慧的採用

人工智慧與法治3:線上法院的興起

人工智慧與法治4:演算法偏見及其對司法決策的影響

人工智慧與法治5:人工智慧時代保障人權

人工智慧與法治6:司法人員的人工智慧倫理與治理

6.2.12 尊重國際行為準則

使人工智慧做法與全球倫理標準和規範保持一致。

人工智慧遵循國際行為準則是指在人工智慧的設計、開發、展開及使用過程中,須遵循的道德和倫理原則。該等準則旨在確保人工智慧系統的安全、公平、透明和當責。

人工智慧系統可能有意或無意地傷害人類,因此尊重國際行為準則有助於防範此類危害;可能擴大社會不平等鴻溝,因此尊重國際行為準則有助於促進社會公平。人工智慧亦有可能遭到誤用而侵犯民主價值,因此尊重國際行為準則有助於維護民主價值。故須確保人類共同適用的倫理、法律和社會價值獲得尊重。尊重國際行為準則已知利益如下:

  • 尊重人權與隱:確保人工智慧系統設計和實施符合人權和隱私保護的國際標準。
  • 會責:採取行動因應人工智慧技術帶來的社會衝擊,尊重文化多樣性和社會公義。
  • 可解透明度:確保人工智慧系統決策過程可予解釋,並提供透明度,以便理解其工作原理和影響狀況。
  • 設計規範措施,例如:制定倫理指引,確保人工智慧設計和使用符合國際倫理準則。設計隱私保護策略和機制,遵循國際隱私法規,人工智慧系統宜設計為主動地避免對人類造成傷害,公平對待所有人,其運作方式宜乎透明。具有可追溯性和當責功能。
  • 開發前後環節可行方式,例如:在開發中考慮不同文化背景,確保技術適用於多元社會。決策過程宜透明,可理解並予以審查相關要件,如:系統的預期使用方式、系統對社會可能產生的影響、系統的潛在風險和利益。
  • 選擇性實務與控制系統宜在其預期用途的環境中進行測試和評估、定期進行監控和更新。
  • :實施倫理審查流程,審核人工智慧系統的設計和應用。
  • 監督與標準制定:建立監機構與國際標準,規範人工智慧技術的開發和應用。
  • 設立人工智慧倫理委員會,負責制定、安排、推動和監督人工智慧的國際行為準則的實施與改進。
  • 在大學和研究機構開設人工智慧倫理課程,培養人工智慧人才的倫理意識。
  • 鼓勵企業和組織制定人工智慧倫理政策,並在實際工作中遵循這些政策。

管制機制:人工智慧系統宜具有以下管制機制:

  • 系統宜具有安全功能,以防止系統被濫用。
  • 系統宜具有透明度功能,以便人們了解系統的運作方式。
  • 系統宜具有可當責性功能,以便人們追究系統的責任。

6.2.13 環境可持續性

人工智慧設計、開發、展開和使用過程中,須兼顧永續發展及對環境友善,促進環境永續性處理方案,以最大程度地減少環境影響並促進可持續性。宜考慮相關措施,參見下述事項:

  • 能源效率:在交通、建築、製造等產業領域,人工智慧可優化能源使用,提高效率,降低碳足跡,監測和預測氣候變化,用於城市規劃和管理,促進資源有效利用。例如:人工智慧可用於預測交通需求,以調整交通流量,減少交通堵塞和能源消耗。
  • 設計規範:確保人工智慧系統設計符合低能耗原則,公平看待環境各個環境要素,開發環保型演算法,降低運算能源消耗。避免對環境造成傷害。
  • 開發前後環境:考慮環境資料收集和應用,優先考慮整合型可再生能源,以提高人工智慧的環境影響力。
  • 實施與管制機制多樣化:人工智慧系統的實施須在其預期用途的環境中進行測試和評估,該系統須具有安全功能,防止系統被濫用,該系統須定期進行監控和更新。實施環境影響評估,確保人工智慧系統符合環境標準;
  • 人工智慧系統應具有當責性功能,以便人們追究系統的責任。建立監督機制和採用國際標準,引導人工智慧技術發展。
  • 在農業、農產品製造、民生消費等領域,提高資源規劃、運轉與利用效率。例如:人工智慧可用於監控氣候變化與農作物生長,提高單位面積產出量、避免氣候影響與減少資源浪費。
  • 棄物回收和再利用等領域,例如:人工智慧可用於識別廢棄物中的可回收材料,以提高資源回收率。

人工智慧系統的運作方式須為透明的,以便人們了解系統的運作方式。考慮該等系統對環境可能產生的影響、潛在風險和利益,宜確保其具有可追溯性和當責性。

6.2.14 勞動實踐

確保對人工智慧開發和利用所涉及的勞動進行公平和倫理的處理。人工智慧影響勞動實踐,關注事項例如:

  1. 工作變革人工智慧可以自動化重複性、繁瑣的工作,提高勞動效益,從而釋放人力資源,讓人們專注於更具創造性和挑戰性的工作。
  2. 改善勞動條件:人工智慧可以幫助減少工作場所的特定職業危險和產業污染情境,並提供更靈活的工作安排。
  3. 就業影響人工智慧改變工作性質,催生新的產業和職業,為人們提供新的就業機會;可能替代部分工作,需關注轉型和再訓練,提供轉型支持計劃以幫助受影響勞工,發展人工智慧相關技能訓練,幫助勞工適應新環境。
  4. 倫理與標準人工智慧有可能被用於歧視、監控或操縱人類。須建立人工智慧勞動倫理標準,重視勞工權益,保障勞工權益,建立監管機制評估人工智慧對勞動實踐的影響。

設計規範行動項目

  1. 工作再設計人工智慧有可能取代某些現有的工作職位,導致失業率上升,考慮勞動力市場的影響,須設計人工智慧促進工作再設計,採取措施減少人工智慧對就業的負面影響,協助勞工適應技術變革。例如:人工智慧系統可以設計為與人類員工協同工作,而不是取代人類員工。
  2. 保障勞工權益:人工智慧有可能加劇社會不平等,因為那些掌握人工智慧技術的人將獲得更多的利益,須建立設計原則以保障勞工權益及工作安全;宜建立人工智慧倫理委員會,負責審查人工智慧系統的使用。
  3. 開發情境:在開發人工智慧系統時,應考慮系統的使用情境,並採取措施防止人工智慧被用於歧視、監控或操縱人類。提供員工參與的機會,並採取措施保護員工的權益。例如:可以設計人工智慧系統,使其能夠尊重人類的隱私和自主權,能夠對人類的命令進行評估和回饋。
  4. 社會對話政府宜制定人工智慧勞動實踐的相關法律法規,保障勞動者的權益;企業宜制定人工智慧勞動實踐的相關政策,確保人工智慧的合理使用;勞工組織宜加強對人工智慧勞動實踐的監察,維護勞動者的權益。促進公眾和產業間的對話,確保勞動實踐的平衡與公正。

詳細內容參見標準原文。


沒有留言:

張貼留言