2024年1月14日 星期日

聯合國教科文組織關於人工智慧倫理的建議

Recommendation on the Ethics of Artificial Intelligence
關於人工智慧倫理的建議

前言

聯合國教育、科學及文化組織(UN教科文組織)大會於 2021 11 9 日至 24 日在巴黎舉行第 41 屆會議,

認識到人工智慧 (AI) 對社會、環境、生態系統和人類生活(包括人類思維)具有深刻且變遷的正負面衝擊,部分原因在於使用人工智慧係以新的方式影響人類思考方式、交互作用及做出決策,並且波及到教育學、人類科學、社會科學和自然科學、文化、傳播和資訊,

回顧教科文組織《章程》的規定,力求透過教育、科學、文化、傳播和資訊促進各國之間的合作,為和平與安全做出貢獻,以進一步促進對正義、法治及眾所確認世界各國人民都享有的人權和基本自由之普遍尊重,

深信此處提出的建議內容,透過全球方式制訂,基於國際法,重點關注人類尊嚴和人權,以及性別平等、社會和經濟正義與發展、身體與心靈舒適性、多樣性、相互聯繫性、共融性、及環境和生態系統保護所開發的標準性文書,可以引導人工智慧技術朝向負責任的方向,

遵循《聯合國憲章》的宗旨和原則,

考慮到人工智慧技術可以對人類大有助益,且所有國家都可以從中受益,但也引發了根本性的倫理問題,例如人工智慧可能嵌入並加劇偏見,可能導致歧視、不平等、數位落差、排斥,及對文化、社會和生物多樣性構成威脅,造成社會或經濟鴻溝;演算法的工作原理和訓練資料須有透明度和可理解性;人工智慧技術有多方面的潛在影響,包括但不限於人類尊嚴、人權和基本自由、性別平等、民主、社會、經濟、政治和文化進程、科學和工程實踐、動物福利以及環境和各種生態系統,

意識到人工智慧技術可能會加深世界上各種國家內部和國家之間現有的鴻溝和不平等,必須維護正義、信任和公平,不讓任何國家和任何人落後,以便公平地獲得人工智慧技術並享受其好處或免受其負面牽連,同時認識到不同國家的不同情況並尊重一部份人不參與所有技術發展的意願,

意識到各國都面臨著資訊通信技術和人工智慧技術加速使用,以及對媒體和資訊涵養日益增長的需求,數位經濟帶來了重要的惠益共享到社會、經濟和環境挑戰和機遇的重要性,特別是低收入和中等收入國家(LMIC),包括但不限於最不發達國家(LDC)、內陸發展中國家(LLDC) 和小島嶼發展中國家(SIDS),需要得到承認和保護促進本生文化、價值觀和知識,以發展可持續的數位經濟,

進一步認識到人工智慧技術有益於環境和生態系統的潛能,若要實現該等益處,不宜忽視而須處理對環境和生態系統的潛在危害和負面衝擊,

指出處理風險和倫理問題不宜阻礙創新和發展,而須提供新的機會,激勵合乎倫理方式進行研究和創新,將人工智慧技術錨定在人權和基本自由、價值觀和各項原則,以及道德和倫理反映,

憶及2019 11 月時,UN教科文組織大會第四十屆會議通過了第 40 C/37 號決議,其中授權總幹事「以建議書的形式編輯一份關於人工智慧倫理的國際標準制定文書」 ),並將該建議書提交給2021 年第四十一屆大會會議,

認識到人工智慧技術的發展需要相須提高資料、媒體和資訊涵養,以及擷取獨立、多元化、足資信賴的資訊來源,包括由於濫用個人資料而造成的下列不當行為,力求減輕由於錯誤資訊、虛假資訊和仇恨言論以及傷害等引致的各種風險而須努力,

觀察到人工智慧技術及其社會影響的規範架構在國際和國家法律架構、人權和基本自由、倫理、擷取資料、資訊及知識的需求、研究和創新的自由、人類福祉、環境及生態系統福祉等方面為基礎,並基於共識和共同目標,將倫理價值和原則與人工智慧技術相關的挑戰和機會聯繫起來,

認識到倫理價值觀和原則有助於制定和實施基於權利的政策措施和法律規範,係於技術的快速發展提供指導,

深信全球公認的人工智慧技術倫理標準在充分尊重國際法、特別是人權法的情況下,可以在世界各地開發人工智慧相關規範方面發揮關鍵作用,

銘記《世界人權宣言, 1948 年》、國際人權架構文書,包括《關於難民地位的公約,1951》、《(就業和職業)歧視公約, 1958 年》、《國際人權公約》 《消除一切種族歧視形式公約, 1965 年》、《公民權利和政治權利國際公約, 1966 年》、《經濟、社會及文化權利國際公約, 1966 年》、《消除對婦女一切歧視形式公約 1979 年》、《兒童權利公約, 1989 年》、《身心障礙者權利公約, 2006 年》、《消除教育歧視公約, 1960 年》、《保護及促進文化表現形式的多樣性公約》(2005)以及任何其他相關的國際文書、建議和宣言,

注意到《聯合國發展權利宣言, 1986 年》; 《當代人對後代人的責任宣言, 1997 年》; 《世界生物倫理與人權宣言, 2005 年》; 《聯合國原住民權利宣言, 2007 年》;聯合國大會關於審查資訊社會世界高峰會的決議(A/RES/70/125)(2015 年);聯合國大會關於改變我們的世界:2030 年永續性議程的決議 (A/RES/70/1) (2015);關於保護和擷取文獻遺產(包括數位形式)的建議(2015 年);與氣候變遷有關的倫理原則宣言(2017 年); 《科學與科學研究人員的建議, 2017 年》;網際網路普遍性指標(聯合國教科文組織國際傳播發展計畫於 2018 年批准),包括立足人權、開放、人人可及與各方利益相關者參與( ROAM原則(聯合國教科文組織大會於 2015 年批准);人權理事會關於「數位時代的隱私權」的決議 (A/HRC/RES/42/15) (2019);以及人權理事會關於「新興數位科技與人權」的決議 (A/HRC/RES/41/11) (2019)

強調必須特別關注中低收入國家,包括但不限於最不發達國家、內陸發展中國家和小島嶼發展中國家,因為它們具備能力,但在人工智慧倫理問題辯論中的代表性不足,從而引發對於當地知識、文化多元化、價值系統以及應對人工智慧技術正面和負面影響的全球公平需求事項受到忽視的擔憂,

意識到人工智慧技術的倫理和法規,現有的相關聯合國實體、政府間組織(包括區域組織)以及私營產業、專業組織、非政府組織和科學界制定的許多現有國家政策、其他架構和倡議,

相信人工智慧技術可以帶來重大益處,但實現該等益處也會加劇由創新、知識和技術擷取不對稱引起的緊張態勢,包括:限制公眾參與人工智慧相關議題的能力所侷限的數位和公民涵養缺陷、擷取資訊的障礙、以及涉及能力、人力和機構能力方面的差距、擷取技術創新的障礙、缺乏適當的實體和數位基礎設施和法規架構,包括與資料相關的基礎設施架構,所有該等問題都需要處理,

強調需要加強全球合作與團結,包括透過多邊主義,以促進人工智慧技術的公平擷取,並須對人工智慧技術對文化和倫理系統的多樣性和互聯互通性帶來的挑戰,減少潛在的錯誤使用,充分發揮人工智慧可以給各領域,特別是在發展領域激發全部潛在能力,並確保國家人工智慧策略以倫理原則為指導,

充分考慮到人工智慧技術的快速發展挑戰吾人以合乎倫理方式應用和治理,以及尊重和保護文化多樣性,並潛在地瓦解當地和區域的倫理標準和價值觀,

註:此文並未涵蓋該建議書全部事項,相關內容務須參閱各項文獻原本及最新版次。此處係閱讀隨筆,僅供個人學習,非供印刷或潛在意圖出版。

© All Rights reserved.

1. 2021 11 月第 23 天通過本篇《人工智慧倫理建議書》;

2. 建議成員國根據各國的憲法實踐和治理結構,採取適當步驟,包括可能需要的任何立法或其他措施,在自願的基礎上適用本建議書的規定,以便在其管轄範圍內生效遵守符合國際法(包括國際人權法)的建議書的原則和規範;

3. 亦建議成員國讓包括工商企業在內的所有利益相關者參與進來,確保他們在實施本建議書中發揮各自的作用;提請涉及人工智慧技術的權責機關、機構、研究和學術組織、公眾、私營和民間社會部門的學會和組織關注此份建議書,以便人工智慧技術的開發和使用遵循良好的科學研究指引以及倫理分析和評估。

一、適用範圍

1. 本建議書在教科文組織職責範圍內處理與人工智慧領域相關的倫理問題。它將人工智慧倫理視為一種系統的規範性反思,基於一個由相互依存的價值觀、原則和行動組成不斷發展的整體、綜合、多元文化架構,可以指導社會負責任地處理人工智慧技術對人類、社會和社會的已知與未知影響。環境和生態系統,並為他們提供接受或拒絕人工智慧技術的基礎。本建議書將倫理視為人工智慧技術規範評估和指導的動態基礎,將人類尊嚴、福祉和預防傷害作為指南針,並紮根在科學技術倫理。

2. 本建議書無意提供人工智慧的單一定義,因為該定義將需要隨著時間的推移、根據技術的發展而改變。然而,本建議書的目標是處理人工智慧系統中那些具有樞紐倫理相關性的特徵。因此,本建議書將人工智慧系統視為具有以類似於智慧行為方式處理資料和資訊能力的系統,通常包括推理、學習、感知、預測、規劃或控制等方面。此方法中核心的三個要素:

(a) 人工智慧系統是整合模型和演算法的資訊處理技術,能夠產生學習和執行認知任務的能力,從而在實體和虛擬環境中產生預測和做出決策等結果。人工智慧系統旨在透過知識建模和代表型態,以及開發資料和計算相關性實現不同程度的自主性。人工智慧系統可能包括多種方法,例如但不限於:

(i) 機器學習,包括深度學習和強化學習;

(ii)機器推理,包括規劃、調度、知識表達方式和推理、搜尋和最優化。

人工智慧系統可用於網路物理系統,包括處於人工智慧系統工作的環境中的物聯網、機器人系統、社交機器人和人機界面,其中涉及控制、感知、感測器收集的資料的處理以及執行器的操作。

(b) 有關人工智慧系統的倫理問題涉及人工智慧系統生命週期的所有階段,此處係指從研究、設計和開發到部署和使用,包括維護、營運、貿易、融資、監和評估、確證、結束使用、拆卸和終止。此外,人工智慧行動者可以定義為參與人工智慧系統生命週期至少一個階段的任何參與者,既可以是自然人,也可以是法人,例如:研究人員、程式設計師、工程師、資料科學家、最終使用者、工商企業、大學、公營和私人實體等。

(c) 人工智慧系統引發新型倫理問題,包括但不限於其對決策、就業和勞動、社會互動、健康照護、教育、媒體、資訊取得、數位落差、個人資料的影響多個面向,包括:消費者保護、環境、民主、法治、安全和警務、雙重用途、人權和基本自由,包括:言論自由、隱私和不歧視。此外,人工智慧演算法有可能複製和強化既有偏見,從而加劇現有形式的歧視、偏見和成見,從而帶來新的倫理挑戰。其中一些問題與人工智慧系統執行以前只有生物才能完成任務的能力有關,在某些情況下甚至僅限於人類。該等特性賦予人工智慧系統在人類實踐和社會以及與環境和生態系統的關係中發揮深遠的新作用,為兒童和青少年的成長、開發對世界和認識自身、批判性地理解媒體和資訊,並學會做出決定,創造新的環境。從長遠來看,人工智慧系統可能會挑戰人類特有的經驗和能動作用的感知性,特別是引發人們對人類自我理解、社會、文化和環境互動、自主性、自主性、價值和尊嚴等方面的額外擔憂。

3. 本建議書特別關注人工智慧系統對教科文組織樞紐領域的較廣泛倫理影響:教育、科學、文化、傳播和資訊,正如聯合國教科文組織世界科學知識與技術倫理委員會(COMEST2019 年人工智慧倫理初步研究中所探討的:

(a) 教育,因為考慮到對勞動市場、就業能力和公民參與的影響,生活在數位化社會中需要新的教育實務、倫理反思、批判性思維、負責任的設計實踐和新技能。

(b) 科學,從最廣泛的意義上說,包括從自然科學和醫學到社會科學和人文科學的所有學術領域,因為人工智慧技術帶來了新的研究能力和方法,對我們的科學理解和解釋概念產生了影響,以及為做出決策創造新的基礎。

(c) 文化認同和多樣性,因為人工智慧技術可以豐富文化和創意產業,但也可能導致文化供應的內容、資料、市場和收入的更加集中在少數參與者手中,從而在語言、媒體、文化表現、參與及平等的多樣性和多元化引起潛在的負面影響。

(d) 通訊和資訊,因為人工智慧技術在處理、結構化和提供資訊方面發揮著越來越重要的作用;自動化新聞產業、提供新聞的演算法、社交媒體和搜尋引擎內容的審查和管理等問題只是幾個例子突顯出有關的問題,諸如:資訊擷取、虛假資訊、錯誤資訊、仇恨言論、社會敘事新形式、歧視、言論自由、隱私以及媒體和資訊涵養等。

4. 本建議書針對作為人工智慧行動者和負責在整個人工智慧系統生命週期制定法律和法規架構,以及促進企業責任之執政者的成員國。它也為所有人工智慧行動者(包括公共和私營產業)提供倫理指導,經由提供基礎為人工智慧系統整個生命週期的倫理衝擊評鑑。

.目的和目標

5. 本建議書旨在提供基礎,由人工智慧系統為人類、個人、社會、環境和生態系統造福並防止危害;亦旨在激勵和平使用人工智慧系統。

6. 除了世界各地現有的人工智慧倫理架構外,本建議書旨在提出一項全球公認的規範性文書,不僅注重闡述價值和原則,而且注重透過具體的政策建議務實地實現該等價值和原則,高度重視性別平等以及保護環境和生態系統的包容性議題。

7. 由於人工智慧倫理問題的複雜性,故需要國際、區域和國家級社區的各個層面和部門多個利益相關者進行合作,本建議書旨在使利益相關者能夠在全球和跨文化對話的基礎上共同承擔責任。

8. 本建議書的目標如下所示:

(a) 提供一個普遍的價值觀、原則和行動架構,以指導各國根據國際法制定有關人工智慧的立法、政策或其他文書;

(b) 指導個人、團體、社群、機構和私營產業公司的行動,確保將倫理準則嵌入人工智慧系統生命週期的各個階段;

(c) 在人工智慧系統生命週期的各個階段保護、促進和尊重人權和基本自由、人的尊嚴和平等,包括性別平等;保障當代和子孫後代的利益;保存環境、生物多樣性和生態系統;並尊重文化多樣性;

(d) 就人工智慧系統相關倫理問題促進多方利益關係者、多學科和多元化對話並建立共識;

(e) 促進公平擷取人工智慧領域的發展和知識以及利益共享,特別關注包括最不發達國家、內陸發展中國家和小島嶼發展中國家在內的中低收入國家的需求和貢獻。

三.價值觀和原則

9. 首先,人工智慧系統生命週期中的所有參與者須尊重下述價值觀和原則,並在需要和適當的情況下,透過增補現有法律、法規和商業準則,從而促進此等價值觀和原則。因此必須符合國際法,包括《聯合國憲章》和會員國的人權義務,並須符合國際議定的社會、政治、環境、教育、科學和經濟永續性目標,例如聯合國永續性目標(SDGs)。

10. 價值觀作為理想的激勵因素在制定政策措施和法律規範方面發揮著強大作用。雖然下文概述的一系列價值觀得以激發理想的行為,並為各項原則奠定基礎,且此等原則更具體地闡明背後的價值觀,以便此等價值觀易於在政策聲明和措施中付諸實施。

11. 雖然下文概述的所有價值觀和原則本身都是令人盼望的,但在某種實際背景條件下,此等價值觀和原則之間可能存在緊張關係。在某種特定情況下,都需要進行背景評鑑,以管理潛在的緊張局勢,同時考慮相稱性原則並遵守人權和基本自由。在任何情況下,對人權和基本自由施加的任何可能的限制都必須有法律基礎,並且合理、必要和相稱,並符合根據國際法由國家承擔的義務。為了明智與審慎地處理此等情境,通常需要與廣泛的適當利益相關者進行接觸,利用社會對話以及倫理慎重考慮、盡職調查和衝擊評鑑。

12. 人工智慧系統生命週期的可信任度和完整性對於確保人工智慧技術造福人類、個人、社會以及環境和生態系統至關重要,並體現本建議書所述的價值觀和原則。人們須有充分的理由相信人工智慧系統可以帶來個人和共享利益,同時採取適當措施以減輕風險。可信任度的一個基本要求,是在人工智慧系統的整個生命週期中,人工智慧系統須受到涉及之利益相關者的全面監。由於可信任度是本文件中原則付諸實施的結果,因此本建議書中提出的政策措施旨在促進人工智慧系統生命週期各階段的可信任度。

III.1 價值觀

尊重、保護和促進人權、基本自由和人的尊嚴

13. 每個人不可侵犯的固有尊嚴是普世、不可分割、不可剝奪、相互依存和相互關聯的人權和基本自由系統的基礎。因此,尊重、保護和促進國際法(包括國際人權法)確立的人類尊嚴和權利在人工智慧系統的整個生命週期中至關重要。人的尊嚴涉及承認每個人固有與平等的價值,不論其種族、膚色、血統、性別、年齡、語言、宗教、政治觀點、國籍、族裔、社會出身、與生俱來的經濟或社會條件、身心障礙和任何其他原因。

14. 在人工智慧系統生命週期的任何階段,無論是在身體、經濟、社會、政治、文化或精神等任何方面,任何人類或人類社群都不宜受到傷害或被迫居於從屬地位。在人工智慧系統的整個生命週期內,人類的生活品質須得到提高,而「生活品質」的定義,只要不侵犯或踐踏人權及基本自由,或按照該項定義的人類尊嚴,須由個人或群體決定之。

15. 在人工智慧系統整個生命週期中,人們都可以與人工智慧系統互動並獲得其幫助,例如:照顧弱勢群體或處於弱勢情況的群體,包括但不限於兒童、老年人、身心障礙者或病人。在此等互動過程,人類不宜受到物化,既不宜以其他方式損害人類尊嚴,亦不宜侵犯或踐踏人權和基本自由。

16. 人權和基本自由必須在人工智慧系統的整個生命週期中得到尊重、保護和促進。各國政府、私營產業、民間社會、國際組織、科技社群及學術界在干預人工智慧系統生命週期有關的過程時必須尊重人權文書和架構。新科技需要提供新的手段來倡導、捍衛和行使人權,而不是侵犯人權。

環境和生態系統蓬勃發展

17.在人工智慧系統的整個生命週期中須認識、保護和促進環境和生態系統的蓬勃發展。此外,環境和生態系統也是關係到人類和其他生物能否享受人工智慧進步帶來好處的生存必要性。

18. 參與人工智慧系統生命週期的所有參與者都必須遵守適用的國際法和國內立法、標準和慣例,例如:為保護和恢復環境和生態系統以及永續性而設計的預防措施。他們須減少人工智慧系統對環境的影響,包括但不限於其碳足,以確保最大限度地降低氣候變遷和環境風險因素,並防止對自然資源的不可持續開發、使用和轉化所導致環境惡化和生態系統的退化。

確保多元和包容性

19. 根據包括人權法在內的國際法,確保在人工智慧系統的整個生命週期中尊重、保護和促進多樣性和包容性。這可以透過促進所有個人或團體的積極參與來實現,無論其種族、膚色、血統、性別、年齡、語言、宗教、政治觀點、國籍、族裔、社會出身、與生俱來的經濟或社會條件、或身心障礙以及任何其他理由。

20. 關於生活方式的選擇、信念、觀點、表達方式或個人經驗等範圍,包括人工智慧系統的選擇性使用和該等架構的協同設計,在人工智慧系統生命週期的任何階段都不宜受到限制。

21. 此外,尚須努力為之,包括開展國際合作,彌補而非利用某些社區缺乏必要的技術基礎設施、教育和技能,以及法律架構的狀況,特別是在中低收入國家、最不發達國家、內陸發展中國家和小島嶼發展中國家。

生活在和平、公正和相互聯繫的社會中

22. 人工智慧行動者須發揮參與和促進作用,以確保和平與公正的社會,此等社會的基礎是相互關聯的未來,惠及全民、符合人權和基本自由。生活在和平公正的社會中的價值觀表明,人工智慧系統有潛力在其整個生命週期中有助於所有生物之間以及與自然環境的互聯互通。

23. 人類互聯的概念係基於下述認識,即每個人都屬於一個更大的整體,當該整體所有組成部分都能蓬勃發展時,該整體才會蓬勃發展。生活在和平、公正和互聯的社會中,需要一種有機的、直接的、出自本能的團結紐帶,其特點是不懈怠地尋求和平關係,傾向於最廣泛意義上關懷他人和自然環境。

24. 這一價值觀需求在人工智慧系統的整個生命週期中促進和平、包容與正義、公平和互聯,人工智慧系統生命週期的各項過程不得隔離、物化或損害自由和自主決策,使得人類和社區的安全以及個人和群體的分裂與相互對立,亦不得威脅人類、其他生物和自然環境之間的共存。

III.2 原則

相稱性與不造成傷害

25. 須得知人工智慧技術本身不一定能確保人類、環境和生態系統的蓬勃發展。此外,與人工智慧系統生命週期相關的任何過程都不得超出實現合法目的或目標所需的範圍,並且須適合具體情況。如果可能對人類、人權和基本自由、整個社區和社會或環境和生態系統造成任何損害,須確保執行風險評鑑程序並採取措施,以防止發生此類傷害。

26. 選擇使用人工智慧系統以及使用哪種人工智慧方法須透過以下方式佐證說明其合理性: (a) 所選擇的人工智慧方法須適當且相稱,以實現既定的合法目標; (b) 所選用的人工智慧方法不得侵犯本文書闡述的基本價值觀,特別是其使用不得侵犯或踐踏人權; (c) 人工智慧方法須適合背景環境,並須基於嚴格的科學基礎。在決策被認為具有不可逆轉或難以逆轉的衝擊或可能涉及生死決定的情況下,適用時,最終須由人類決定。人工智慧系統尤其不得用於社會評分行為或監督群眾目的。

安全與保全

27.在人工智慧系統的整個生命週期中,須避免、處理、預防和消除不必要的傷害(安全風險)以及易受攻擊的脆弱性(保全風險),以確保人類、環境和生態系統的安全與保全。安全與保全保障的人工智慧將透過開發可持續的、保護隱私的資料存取架構來實現,該等架構可以促進利用高品質資料來更好地訓練和確證人工智慧模型。

公平和非歧視

28. 人工智慧行動者須根據國際法,促進社會正義並保障任何形式的公平和非歧視。此點意味著採取包容性方法,確保所有人都能獲得人工智慧技術的益處,同時考慮到不同年齡層、文化系統、不同語言群體、身心障礙者、女童和婦女、弱勢群體、邊緣化群體、以及弱勢群體或處於弱勢處境群體的具體需求。成員國須努力促進包括當地社區在內的所有人包容性地使用具有當地相關內容和服務,兼且尊重多種語言和文化多樣性的人工智慧系統。成員國須努力消除數位鴻溝,確保人工智慧發展的包容性取得和參與。在國家層面,就進入和參與人工智慧系統生命週期而言,會員國須促進農村和城市地區以及所有人之間的平等,不論種族、膚色、血統、性別、年齡、語言、宗教、政治觀點、國籍、族裔、社會出身、與生俱來之經濟或社會的條件、身心障礙或任何其他理由。在國際層面,科技最先進的國家有責任支持最不先進的國家,確保共享人工智慧技術的利益,使後者得以進入和參與人工智慧系統生命週期,從而有助於在關於資訊、通訊、文化、教育、研究以及社會經濟和政治穩定方面建立更公平的世界秩序。

29. 人工智慧行動者須盡一切合理努力,在人工智慧系統的整個生命週期中盡量減少並避免強化或延續歧視性或偏見的應用和結果,以確保此類系統的公平性。須針對歧視和帶有偏見的演算法採取有效的補救措施。

30. 此外,需要根據相關的國家、區域和國際法律架構,在人工智慧系統的整個生命週期中處理國家內部和國家之間的數位和知識鴻溝,包括技術和資料的擷取和擷取品質方面的鴻溝,以及受影響社區的連結性、知識和技能以及有意義的參與,從而使每個人都得到公平對待。

永續性

31. 永續社會的發展有賴於實現一系列涉及人類、社會、文化、經濟和環境各個層面的複雜目標。人工智慧技術的出現要麼有利於永續性目標,要麼阻礙其實現,這取決於它們如何應用在不同發展水準的國家。因此,對人工智慧技術於人類、社會、文化、經濟和環境的衝擊進行持續評鑑時,須充分認識到人工智慧技術對永續性的影響,將其視為一系列跨多個維度不斷發展的目標,例如:目前聯合國永續性目標(SDG)所確定的事項。

隱私權和資料保護

32. 隱私是保護人類尊嚴、人類自主和人類自主性所必需的權利,必須在人工智慧系統的整個生命週期中得到尊重、保護和促進。重要的是,人工智慧系統所運用資料的收集、使用、共享、存檔和刪除方式須符合國際法,並符合本建議書所述的價值觀和原則,同時尊重相關的國家、區域和國際法律架構。

33. 須在國家或國際層面以多利益相關者的方式,建立適當的資料保護架構和治理機制,並受到司法系統的保護,並在人工智慧系統的整個生命週期中予以確保之。資料保護架構和任何相關機制須參考有關個人資料收集、使用和揭露以及資料主體行使其權利的國際資料保護原則和標準,同時確保處理個人資料具有合法目的及有效的法律依據。包括取得知情同意。

34. 演算法系統需要充分的隱私衝擊評鑑,其中還包括對使用演算法系統的社會和倫理考量,以及透過設計方法關於隱私的創新使用。人工智慧行動者需要確保他們對人工智慧系統的設計和實施負責,以確保個人資訊在人工智慧系統的整個生命週期中受到保護。

人類監督和決定

35. 成員國須確保始終可以將人工智慧系統生命週期任何階段以及與人工智慧系統相關的補救措施的倫理和法律責任歸屬於自然人或現有法人實體。因此,人類監督不僅指個人監督,也視情況指範圍廣泛的公共監督。

36. 有時人類可能出於效率原因而選擇依賴人工智慧系統,但在有限的情況下放棄控制權的決定仍然是由人類作出決定,因為人類可以在決策和行動中訴諸人工智慧系統,但人工智慧系統永遠無法取代人類的最終責任和義務。一般來說,涉及生或死的抉擇不宜交給人工智慧系統。

透明度和可解釋性

37. 人工智慧系統的透明度和可解釋性通常是確保尊重、保護和促進人權、基本自由和倫理原則的必要先決條件。相關國家和國際責任制度若是能有效發揮作用,必須要具備透明度。缺乏透明度也可能削弱對基於人工智慧系統產生的結果的決策提出有效質疑的可能性,從而可能侵犯獲得公平審判和有效補救的權利,另亦限制了該等系統的合法使用領域。

38. 在人工智慧系統整個生命週期都需要努力提高人工智慧系統(包括具有定義域外影響的人工智慧系統)的透明度和可解釋性,以支持民主治理,但透明度和可解釋性的水準須始終適合背景環境和衝擊,因為可能需要在透明度和可解釋性以及隱私、安全和保障等其他原則之間取得平衡。當人工智慧演算法告知或基於人工智慧演算法做出決定時,亦包括當其影響當事人的安全或人權時,人們須充分知情,並且在該等情況下,須有機會向相關人工智慧行動者或公眾請求解釋性資訊。此外,個人須能獲取以了解影響其權利和自由的決定的原因,並可以選擇向能夠審查和矯正決定的私營產業公司或公共部門機構的指定工作人員提交意見。當直接或在人工智慧系統的幫助下提供產品或服務時,人工智慧行動者須及時、適當地通知使用者。

39. 從社會技術角度來看,提高透明度有助於建立更和平、公正、民主和包容的社會;得以允許公眾監督,從而減少腐敗和歧視,還可以幫助發現和防止對人權的負面衝擊。透明度旨在向個別的收受者提供適當的資訊,以使其理解並增進信任。具體到人工智慧系統,透明度可以使人們了解人工智慧系統的每個階段是如何實施的,適合人工智慧系統的背景環境和敏感性。它還可能包括深入了解影響特定預測或決策的因素,以及是否採取適當的保證(例如安全或公平措施)。如果存在嚴重的不利於人權的衝擊威脅,透明度可能還會要求共享代碼或資料集。

40. 可解釋性係指使人工智慧系統的結果變得易於理解並提供闡釋說明。人工智慧系統的可解釋性也指每個演算法建構模塊的輸入、輸出和功能的可理解性,以及它如何促成系統產出結果。因此,可解釋性與透明度密切相關,因為結果和導致結果的從屬過程須易於理解和追踪,並適合具體情況。人工智慧行動者須致力於確保開發的演算法是可以解釋的。如果人工智慧應用程式以非暫時的、不易逆轉的或其他低風險的方式影響最終用戶,則須確保為導致結果而採取的措施的任何決定提供有意義的解釋,方才可以認為是透明的。

41. 透明度和可解釋性與充分的責任和當責措施以及人工智慧系統的可信任度密切相關。

責任與當責

42. 人工智慧行動者和成員國須尊重、保護和促進人權和基本自由,也須促進對環境和生態系統的保護,根據國家和國際法,特別是成員國法律,承擔各自的倫理和法律責任。各國在人工智慧系統整個生命週期中的人權義務和倫理指導,包括在其有效領土和控制範圍內的人工智慧行動者。以任何方式基於人工智慧系統的決策和措施的倫理責任和義務最終須歸咎於人工智慧行動者在人工智慧系統生命週期中所扮演的角色。

43. 須制定適當的監督、衝擊評鑑、稽核和盡職調查機制,包括對吹哨者的保護,以確保人工智慧系統及其整個生命週期的影響之當責性。技術和制度設計都須確保人工智慧系統(合宜運行)的可稽核性和可追溯性,特別是處理與人權規範和標準的衝突以及對環境和生態系統福祉的威脅。

意識和涵養

44. 須透過開放和可獲得的教育、公民參與、數位技能和人工智慧倫理訓練、媒體和資訊涵養以及政府、政府間組織、民間社會、學術界、媒體、社區領袖和私營產業,並考慮現有的語言、社會和文化多樣性,確保有效的公眾參與,使所有社會成員都能就人工智慧系統的使用做出明智的決定,並免受不當影響。

45. 了解人工智慧系統的影響須包括了解、借助及促進人權和基本自由,這意味著人工智慧系統的方法和理解須基於其對人權和權利擷取的影響,以及對人權和基本自由的影響。環境和生態系統。

多利益相關者與適應型治理與協作

46. 使用資料時必須尊重國際法和國家主權。這意味著各國可以遵守國際法,對在其領土內產生或透過其領土的資料進行監督,並根據國際法和其他法律,在尊重隱私權的基礎上,採取措施對資料進行有效監督,包括資料保護、人權規範和標準。

47. 不同利益相關者參與整個人工智慧系統生命週期,對於採用包容性的人工智慧治理方法是必要的,使所有人都能共享利益,並推動永續發展。利益關係者包括但不限於政府、政府間組織、技術界、民間社會、研究人員和學術界、媒體、教育、政策制定者、私營產業公司、人權機構和平等機構、反歧視監督機構和青少年和兒童團體。須採用公開標準和可交互運作性促進協作。須採取措施,兼顧技術的變化、新的利益關係者群體的出現,並允許邊緣化群體、社區和個人切實地參與,並在相關情況下,尊重原住民對其資料的自行治理。

四.政策措施領域

48. 以下政策領域所描述的政策措施落實了本建議中所闡述的價值觀和原則。主要措施是會員國制定有效措施,包括政策架構或機制,並確保私營產業公司、學術和研究機構以及民間社會等其他利益相關者遵守該等措施:除其他措施外,鼓勵所有利益相關者根據《聯合國工商業與人權指導原則》等指導方針發展人權、法治、民主和倫理衝擊評鑑和盡職調查工具。制定此類政策或機制的過程須包括所有利益關係者,並須考慮每個會員國的具體情況和優先事項。教科文組織可以成為合作夥伴並支持會員國制定、監督和評估政策機制。

49. 教科文組織認識到,各會員國在科學、技術、經濟、教育、法律、法規、基礎設施、社會、文化和其他方面,將處於落實本建議的不同準備階段。值得注意的是,此處的「準備」係為動態狀態。因此,為了能夠有效實施本建議,教科文組織將: (1) 制定一種準備情況評鑑方法,以協助感興趣的會員國在持續型向度的準備妥當軌跡的特定時刻確定其狀態; (2) 確保支持有興趣的會員國制定聯合國教科文組織人工智慧技術倫理衝擊評鑑(EIA)方法、共享最佳實務、評鑑指南和其他機制以及分析工作。

政策領域 1:倫理衝擊評鑑

50. 會員國須引入衝擊評鑑架構,例如:倫理衝擊評鑑,以識別和評鑑人工智慧系統的效益、關切事項及風險,以及適當的風險預防、緩解和監督措施以及其他保證機制。此類衝擊評鑑須識別對人權和基本自由的衝擊,特別是但不限於邊緣化和弱勢群體或弱勢群體的權利、勞工權利、環境和生態系統以及倫理和社會影響,並促進公民參與符合本建議書中設定的價值和原則。

51. 會員國和私營產業公司須建立盡職調查和監督機制,以識別、預防、減輕和交代它們如何應對人工智慧系統對尊重人權、法治和包容性社會的衝擊。成員國還須能夠評鑑人工智慧系統對貧窮的社會經濟衝擊,並確保貧富差距以及國家之間和國家內部的數位落差不會因人工智慧系統的現狀和未來大規模採用而擴大。為做到此點,特別是須實施可執行的透明度協議,對應於資訊的擷取,包括私人實體持有的公共利益資訊。成員國、私營產業公司和民間社會須調查基於人工智慧的建議對人類自主決策的社會學和心理學影響。被認定為對人權有潛在風險的人工智慧系統須由人工智慧行動者進行廣泛測試,包括在需要時在現實世界條件下進行測試,作為倫理衝擊評鑑的一部分,然後再將其推向市場。

52. 成員國和工商企業須採取適當措施,監測人工智慧系統生命週期的所有階段,包括用於決策的演算法的功能、涉及的資料以及參與該過程的人工智慧行動者,特別是在公共服務領域作為倫理衝擊評鑑的一部分,需要直接的最終使用者互動。人工智慧系統評鑑的倫理面向部分須包括成員國的人權法義務。

53. 各國政府須採用法規架構,以設定程序,特別是公眾管理部門,對人工智慧系統進行倫理衝擊評鑑,以預測後果、減輕風險、避免有害後果、促進公民參與和應對社會挑戰。評鑑尚須建立適當的監督機制,包括可稽核性、可追溯性和可解釋性,從而能夠評鑑演算法、資料和設計過程,並包括對人工智慧系統的外部審查。倫理衝擊評鑑須在適當的情況下透明並向公眾開放。此類評鑑也須是多學科、多元利益關係者、多元文化、多元化和包容性的。須要求公共當局透過引入適當的機制和工具,以監督其實施和/或部署的人工智慧系統。

政策領域 2:倫理治理與事務管理

54. 會員國須確保人工智慧治理機制具有包容性、透明性、多學科性、多邊性(這包括跨界減輕傷害和做出補救的可能性)和多方利益關係者。特別是,治理須包括預期、有效保護、衝擊監督、強制執行和補救等面向。

55. 會員國須確保透過制定強有力的強制執行機制和補救措施,對人工智慧系統造成的傷害進行調查和補救,以確保人權、基本自由和法治在數位世界和現實世界中得到同等尊重。此類機制和措施須包括由私營公司和公共部門提供的補救機制。為此須提升人工智慧系統的可稽核性和可追溯性。此外,成員國須加強其機構能力以貫徹此項承諾,並須與研究人員和其他利益相關者合作,調查、預防和減輕任何潛在惡意使用人工智慧系統。

56. 鼓勵會員國根據其應用領域的敏感性、對人權、環境和生態系統的預期衝擊,以及本建議書中提出的其他倫理考量,制定國家和區域人工智慧策略,並考慮多種形式的軟性治理形式,例如:人工智慧系統的驗證機制及各自獲得驗證的相互承認。此等機制可能包括對系統、資料、倫理準則和倫理方面的程序要求事項,進行不同層級的稽核。同時,此等機制不宜因行政負擔過重而阻礙創新或對中小企業或新創企業、民間社會以及研究和科學組織不利。該等機制還須包括定期監督配套,以確保在人工智慧系統的整個生命週期中系統的穩健性和持續完整性,遵守倫理準則,必要時需要重新驗證。

57. 會員國和公共當局須對現有和擬議的人工智慧系統進行透明的自我評鑑,其中特別須包括評鑑採用人工智慧是否適當,如果適當,須包括進一步評鑑以確定哪些內容適合採用人工智慧。適當的方法是評鑑此等採用是否會導致違反或濫用會員國的人權法義務,如果是此等情況,則禁止其使用。

58. 成員國須鼓勵公共實體、私營產業公司和民間社會組織讓不同利益相關者參與其人工智慧治理,並考慮增加獨立人工智慧倫理專員的角色或其他一些機制來監督倫理衝擊評鑑、稽核和持續監督成果,並確保人工智慧系統的倫理指導事項。鼓勵會員國、私營產業公司和民間社會組織在教科文組織的支持下創建一個獨立的人工智慧倫理專員網路,以在國家、區域和國際層面支持此過程。

59. 會員國須促進數位生態系統的開發和擷取,以促進國家層級人工智慧系統的倫理和包容性發展,包括處理獲取人工智慧系統生命週期的差距,同時促進國際合作。此等生態系統特別包括數位技術和基礎設施,以及適當的人工智慧知識共享機制。

60. 成員國須與國際組織、跨國公司、學術機構和民間社會合作建立機制,確保所有成員國,特別是中低收入國家,尤其以最不發達國家、內陸發展中國家和小島嶼發展中國家積極參與人工智慧治理的國際討論。可以透過提供資金、確保平等的區域參與或任何其他機制來實現。此外,為了確保人工智慧論壇的包容性,成員國須為人工智慧行動者進出其領土提供便利,特別是來自中低收入國家,尤其以最不發達國家、內陸發展中國家和小島嶼發展中國家,以便該等人士參加該等論壇。

61. 針對人工智慧系統的現有國家立法的修正案或新制定的國家立法必須符合成員國的人權法義務,並在整個人工智慧系統生命週期中促進人權和基本自由。隨著人工智慧技術的進步,其推廣也須採取治理措施、人工智慧系統合作實踐的良好範例以及國家和國際技術和方法指南的形式。包括私營產業在內的各個部門在人工智慧系統實踐中,須結合本建議書使用現有和新的文書,尊重、保護和促進人權和基本自由。

62. 為人權敏感用途,例如:執法、福利、就業、媒體和資訊提供者、健康照護和獨立司法系統,配置人工智慧系統的成員國須提供機制,由適當的監督機構,包括獨立的資料保護機構、部門監督和負責監督的公共機構等,負責監督此類系統的社會和經濟衝擊。

63. 會員國須加強司法機構根據法治和國際法和標準做出與人工智慧系統相關的決定的能力,包括在審議中使用人工智慧系統的能力,同時確保維持人類監督原則。如果司法部門使用人工智慧系統,則特別需要有足夠的保障措施,以確實合法保障足以保護基本人權、法治、司法獨立以及人類監督原則,並確保司法部門對人工智慧系統的開發和使用值得信賴,以公共利益為準且以人為本。

64. 會員國須確保政府和多邊組織在確保人工智慧系統安全方面發揮主導作用,加上多方利益關係者參與。具體而言,成員國、國際組織和其他相關機構須制定國際標準,陳述可量測的、可測試的安全性和透明度水準,以便能夠客觀評鑑人工智慧系統並確定符合性水準。此外,成員國和工商企業須持續支持關於人工智慧技術潛在安全與保全風險的策略研究,並須透過在不同領域和不同層面向該等領域投入額外資金,鼓勵對透明度和可解釋性、包容性和涵養的研究,例如技術和自然語言。

65. 會員國須實施政策,確保人工智慧行動者的行為在人工智慧系統的整個生命週期中符合國際人權法、標準和原則,同時充分考慮當前的文化和社會多樣性,包括當地習俗和文化。宗教傳統,同時適當考慮人權的優先性和普遍性。

66. 會員國須建立機制,要求人工智慧行動者揭露和打擊人工智慧系統和結果與資料中的任何形式的陳規/成見,無論是有意為之還是疏忽所致,並確保人工智慧系統的訓練資料集不會助長文化、經濟或社會不平等及偏見,不會散佈虛假資訊和錯誤資訊,也不會干擾言論自由和資訊擷取。須特別關注資料稀缺的地區。

67. 會員國須實施政策,促進和提高人工智慧開發團隊和訓練資料集中反映其人口的多樣性和包容性,並確保平等獲得人工智慧技術及其好處,特別是來自農村和城市地區的邊緣群體。

68. 會員國須酌情制定、審查和調整法規架構,以實現人工智慧系統在生命週期不同階段的內容和結果的當責和責任。成員國須在必要時引入責任架構或澄清現有架構的解釋,以確保人工智慧系統的結果和運作的責任歸屬。此外,在制定法規架構時,成員國尤其須考慮到最終責任和當責必須始終由自然人或法人承擔,而人工智慧系統本身不宜被賦予法人資格。為確保這一點,此類法規架構須符合人類監督原則,並建立針對人工智慧行動者和人工智慧系統生命週期不同階段所涉及的技術過程的綜合方法。

69. 在為尚未存在的情況制定規範,或調整現有的法律架構,成員國須讓所有人工智慧行動者參與,包括但不限於:研究人員、民間社會和執法部門的代表、保險公司、投資者、製造商、工程師、律師和使用者等。該等規範可以成熟地視為最佳實務、法律和法規。為了適應新技術的快速發展,進一步鼓勵成員國利用政策雛型、法規沙箱等機制,加速法律法規和政策的制定,包括定期審查,在被正式採用之前提供一個安全的環境,確保法律法規能夠在實務中得到測試。成員國須支持地方政府根據國家和國際法律架構制定地方政策、法規和法律。

70. 成員國須對人工智慧系統的透明度和可解釋性提出明確要求事項,以協助確保人工智慧系統整個生命週期的可信任度。該等要求事項須涉及影響機制的設計和實施,考慮到每個特定人工智慧系統的應用領域之性質、預期用途、目標受眾和可行性。

政策領域 3:資料政策

71. 成員國須努力制定資料治理策略,確保持續評估人工智慧系統訓練資料的品質,包括資料收集和選擇過程的充分性、適當的資料安全和保護措施,以及從錯誤中學習,並在所有人工智慧行動者之間共享最佳實務。

72. 會員國須依據國際法制定適當的保障措施來保護隱私權,包括處理偵測等關切事項。除此之外,會員國須採用或執行可以提供適當保護、且符合國際法的法律架構。成員國須大力鼓勵包括工商企業在內的所有人工智慧行動者,遵循現有國際標準,特別是在倫理衝擊評鑑中進行適當的隱私衝擊評鑑,其中考慮到預期的人工智慧資料處理產生更廣泛的社會經濟影響,並透過設計伊始便在其系統中實施保護隱私原則。人工智慧系統的整個生命週期中須尊重、保護和促進隱私。

73. 會員國須確保個人可以保留對其個人資料的權利並受到架構的保護,該架構尤其須預見下列狀況: 透明度;處理敏感資料的適當保障措施;適當等級的資料保護;有效且有意義的當責計劃和機制;充共享有資料主體的權利以及存取和刪除人工智慧系統中的個人資料的能力,符合國際法的某些情況除外;當資料用於商業目的(例如:啟用定向目標廣告、跨境傳輸)時,完全符合資料保護立法的適當程度的保護;有效的獨立監督作為資料治理機制的一部分,使個人能夠控制自己的個人資料,並促進國際資訊自由流動(包括資料存取)的好處。

74. 成員國須建立自己的資料政策或同等架構,或加強現有的架構,以確保個人資料和敏感資料的充分安全,該等資料如果洩露,可能會對個人造成異常損害、傷害或困難。例子包括與犯罪、刑事訴訟、定罪以及相關安全措施有關的資料;生物辨識、遺傳和健康資料; 個人資料,例如與種族、膚色、血統、性別、年齡、語言、宗教、政治觀點、國籍、民族、社會出身、與生俱來的經濟或社會條件、或身心障礙和任何其他特徵有關的資料。

75. 會員國須促進開放資料。在這方面,成員國須考慮審查其政策和法規架構,包括資訊取得和政務公開的政策和法規架構,以反映人工智慧的具體要求事項和促進機制,例如:公共資助或公共持有的資料和原始碼以及資料信託的開放儲存庫,支援安全、公平、合法和合乎倫理的資料共享等。

76. 會員國須推動和促進使用高品質和穩固的資料集做為訓練、開發和使用人工智慧系統,並在監督其收集​​和使用方面保持警惕。如果可能且可行的話,可以包括投資創建黃金標準資料集,包括開放、值得信賴、多樣化的的資料集,建立在有效的法律基礎上,依循法律要求徵得資料主體的同意而得到的資料集。須鼓勵制定資料集註釋標準,包括按性別和其他基礎分類資料,以便可以輕鬆確定資料集的收集方式及其具有哪些屬性。

77. 正如聯合國秘書長數位合作高級別小組的報告所建議的那樣,會員國須在聯合國和教科文組織的支持下,酌情採取數位資料共享方法,提高資料的可交互運作性。工具和資料集以及託管資料的系統接口,並鼓勵私營產業公司酌情與所有利益相關者共享其收集的資料,以用於研究、創新或公共利益。他們還須促進公共和私營產業努力創建協作平台,以便在可信任和安全的資料空間中共享高品質資料。

政策領域 4:發展與國際合作

78. 成員國和跨國公司須優先考慮人工智慧倫理,將人工智慧相關倫理議題的討論納入相關國際、政府間和多利益相關者論壇。

79. 會員國須確保在教育、科學、文化、通訊和資訊、健康照護、農業和食品供應、環境、自然資源和基礎設施管理、經濟規劃和成長等發展領域的人工智慧應用,並遵守本建議書中提出的價值和原則。

80. 會員國須透過國際組織,努力地為人工智慧促進發展的國際合作提供平台,包括提供專業知識、資金、資料、領域知識、基礎設施,並促進多利益相關者之合作,以處理具有挑戰性的發展問題,特別是中低收入國家,尤其以最不發達國家、內陸發展中國家和小島嶼發展中國家。

81. 會員國須努力促進人工智慧研究和創新的國際合作,包括促進中低收入國家和其他國家(包括最不發達國家、內陸發展中國家和小島嶼發展中國家)的研究人員更多參與和領導的研究和創新中心和網路。

82. 成員國須透過國際組織和研究機構以及跨國公司的參與,促進人工智慧倫理研究,這可以成為公共和私人實體倫理使用人工智慧系統的基礎,包括對特定倫理架構在特定的文化和背景下之適用性的研究,以及根據該等架構開發技術上可行的解決方案之可能性。

83. 會員國須鼓勵人工智慧領域的國際合作與協作,以彌補地緣技術界限。成員國與其人民之間、公共部門與私營產業之間、技術最先進國家與最不先進國家之間須充分尊重國際法,進行技術交流與諮詢。

政策領域 5:環境與生態系統

84. 整個人工智慧系統生命週期內,成員國和工商企業須評鑑對環境產生的直接和間接衝擊,包括但不限於其碳足蹟、能源消耗以及支援人工智慧技術製造而提取的原材料對環境造成的衝擊,並減少人工智慧系統和資料基礎設施對環境的衝擊。成員國須確保所有人工智慧行動者遵守環境法、政策和實務。

85. 會員國須在需要和適當時引入激勵措施,確保開發和採用基於權利、合乎倫理、由人工智慧驅動的抗災處理方案;環境和生態系統的監督、保護和再生;以及保護地球。該等人工智慧系統須讓當地和原住民社區參與人工智慧系統的整個生命週期,並須支援循環經濟類型的方法及可持續的消費和生產模式。例如:在需要和適當時使用人工智慧系統於以下方面:

(a) 支持自然資源的保護、監督和管理。

(b) 支持氣候相關議題的預測、預防、控制和緩解。

(c) 支持更有效率和可永續的糧食生態系統。

(d) 支持加速取得和大規模採用永續能源。

(e) 促成和推動永續基礎設施、永續商業模式和永續金融的主流化,以促進永續性。

(f) 檢測污染物或預測污染水準,從而幫助相關利益相關者確定、規劃和實施有針對性的干預措施,以預防和減少污染和暴露。

86. 在選擇人工智慧方法時,考慮到其中一些方法可能帶布潛在的資料密集型或資源密集型特徵,以及各自對環境產生的衝擊,會員國須確保人工智慧行動者按照相稱性原則,優先考慮資料、能源和資源。以及資源高效利用的人工智慧方法。須發展要求事項,以確保有適當的證據確保人工智慧應用程式將達到預期效果,或者人工智慧應用程式附帶的保障措施可以支持其使用的合理性。如果做不到這一點,則必須支持預防原則,並且在對環境造成過度負面衝擊的情況下,不宜使用人工智慧。

政策領域 6:性別

87. 會員國須確保數位技術和人工智慧促進實現性別平等的潛力得到充分發揮,亦須確保在人工智慧系統生命週期的任何階段,女童與婦女的人權和基本自由及其安全和完整性在任何情況下都不受侵犯。此外,倫理衝擊評鑑須包括橫向性別觀點。

88. 會員國須從其公共預算中撥出專項資金,用於資助促進性別平等的計劃,確保國家數位政策包括性別平等行動計劃,並制定支持女童和婦女的相關政策,例如勞動教育政策,以確保她們不會被排除在人工智慧驅動的數位經濟之外。專項投資提供有針對性的計劃和針對特定性別的語言,以增加女童和婦女參與科學、技術、工程和數學(STEM)領域的機會,包括資訊和通訊技術(ICT)學科、以及為女童和婦女的就業準備、就業能力、平等的職業發展和專業成長準備,提供更多機會。

89. 會員國須確保人工智慧系統推動性別平等的潛力得以實現。他們須確保該等技術不會加劇模擬世界多個領域中已經存在的巨大性別差距,而是消除該等差距。該等差距包括: 性別薪資差距;某些職業和活動中的代表性不平等;人工智慧領域的高階管理職位、董事會或研究團隊缺乏代表性;教育差距;數位和人工智慧的獲取、採用、使用和承受能力差距;以及我們社會中無償工作和照顧責任的不平等分配。

90. 會員國須確保性別舊規定型觀念和歧視性偏見不會移植到人工智慧系統,而是予以鑑別並積極矯正該等問題。有必要努力避免技術鴻溝對下列事項造成的複合負面作用:實現性別平等和暴力行為,例如針對女童和婦女以及代表性不足群體的騷擾、霸凌或販運等(包括在網路領域)。

91. 會員國須鼓勵女性創業、參與和介入人工智慧系統生命週期的各個階段,透過提供和促進經濟、法規等激勵措施,以及其他激勵和支持計劃,制定旨在平衡性別參與人工智慧的政策,如學術界的研究、數位和人工智慧公司高階管理職位、董事會和研究團隊的性別代表性。成員國須確保(用於創新、研究和技術的)公共資金流向具有明確性別代表性的包容性計劃和公司,並透過平權行動原則同樣鼓勵私人資金朝著類似流向。須制定和執行無騷擾環境政策,同時鼓勵轉讓有關如何促進整個人工智慧系統生命週期多樣性的最佳實務。

92. 會員國須促進學術界和產業界人工智慧研究的性別多樣性,為女童和婦女進入該領域提供激勵,建立機制以消除人工智慧研究界內的性別陳舊規定觀念和騷擾,並鼓勵學術界和私人實體分享如何提高性別多元化的最佳實務。

93. 教科文組織可以幫助建立一個最佳做法資料庫,以激勵女童、婦女和代表性不足的群體參與人工智慧系統生命週期的各個階段。

政策領域 7:文化

94. 鼓勵會員國酌情將人工智慧系統納入有形、文獻和非物質文化遺產的保護、豐富、理解、推廣、管理和擷取,包括瀕危語言以及原住民語言和知識,例如:酌情引入或更新與人工智慧系統在該等領域的應用相關的教育計劃,並確保針對機構和公眾的參與性方法。

95. 鼓勵會員國審查和處理人工智慧系統產生的文化衝擊,特別是自動翻譯和語音助理等自然語言處理(NLP)應用對人類語言和表達的細微差別帶來的影響。此類評鑑須為設計和實施策略提供參考,透過彌合文化差距和增進人類理解,及消除因減少使用自然語言等因素造成的負面衝擊,最大程度地發揮該等系統的效益,減少使用可能導致瀕臨滅絕的物種、語言、當地方言以及與人類語言和表達相關的音調和文化差異的消失。

96. 隨著人工智慧技術應用於創造、生產、推廣、傳播和消費各種文化產品和服務,成員國須促進藝術家和創意專業人士的人工智慧教育和數位訓練,以評鑑人工智慧技術在其專業領域的適用性,並為合適的人工智慧技術的設計和實施做出貢獻,同時銘記保護文化遺產、多樣性和藝術自由的重要性。

97.成員國須促進當地文化產業和文化領域的中小企業對人工智慧工具的認識和評估,並避免文化市場集中化的風險。

98. 成員國須讓科技公司和其他利益相關者參與進來,促進文化表現形式的多元化供應和多元化擷取,特別是確保演算法推薦提高本地內容的知名度和可見性。

99. 成員國須促進人工智慧與智慧財產權(IP)交會點的新研究,例如確定是否或如何利用智慧財產權保護透過人工智慧技術創造的作品。成員國也須評鑑人工智慧技術如何影響智慧財產權所有者的權利或利益,知識產權所有者的作品被用於研究、開發、訓練或實施人工智慧應用。

100. 會員國須鼓勵國家層級的博物館、美術館、圖書館和檔案館使用人工智慧系統,突出其收藏品並增強其圖書館、資料庫和知識庫,同時提供使用者存取權限。

政策領域 8:教育與研究

101. 會員國須與國際組織、教育機構以及私營和非政府實體合作,向各國各級民眾提供充分的人工智慧素養教育,以增強人民權能,減少因廣泛採用人工智慧系統造成的數位落差和數位擷取的不平等情形。

102. 成員國須促進人工智慧教育「必備技能」的掌握,例如基本讀寫、計算、編碼和數位技能、媒體和資訊素養,以及批判性和創造性思維、團隊合作、溝通、社會情感能力。人工智慧倫理技能,特別是在該等技能教育存在顯著差距的國家和地區或國家內的地區。

103. 會員國須促進關於人工智慧發展的普遍認知計劃事項,包括關於人工智慧技術的資料與帶來的機會和挑戰、人工智慧系統對人權及其影響(包括兒童權利)的衝擊。該等計劃事項須可供非技術和技術團體使用。

104. 會員國須鼓勵在教學、教師訓練和電子學習等各種方面負責任和合乎倫理地使用人工智慧技術的創始性研究,以增加機會並減輕該領域涉及的挑戰和風險。該等措施須同時對教育品質以及人工智慧科技的使用對學生和教師的衝擊進行充分評鑑。成員國還須確保人工智慧技術賦予學生和教師權力並增強他們的體驗,同時銘記關係和社會方面以及傳統教育形式的價值對於師生關係和學生與學生的關係至關重要,在討論時須考慮人工智慧技術在教育上的應用。涉及監、能力評鑑或學習者行為預測方面,用於學習的人工智慧系統須依循嚴格要求事項。人工智慧須在既不降低認知能力、也不提取敏感資訊的情況下,支援學習過程,並符合相關個人資料保護標準。在學習者與人工智慧系統互動過程中為擷取知識而提交的資料不得被濫用、挪用或用於犯罪剝削行為,亦非用於商業目的。

105. 會員國須促進女童和婦女、不同種族和文化、身心障礙者、邊緣化和弱勢群體或處境弱勢的群體、少數群體以及未充分共享數位包容性好處的所有人,在人工智慧教育中的參與和領導作用各級計劃事項,以及監督和與其他會員國共享此方面的最佳做法。

106. 會員國須根據本國教育計畫和傳統,制定各級人工智慧倫理課程,並促進人工智慧技術技能教育與人工智慧教育的人文、倫理和社會的交叉合作。人工智慧倫理教育的線上課程和數位資源須以當地語言(包括原住民語言)開發,並考慮到環境的多樣性,特別是確保身心障礙者可以使用的無障礙格式。

107. 會員國須促進和支持人工智慧研究,特別是人工智慧倫理研究,包括透過投資此類研究或為公共和私營產業投資這一領域創造激勵措施,並認識到研究對人工智慧進一步發展和改善做出了重大貢獻。改進人工智慧技術,以促進國際法以及本建議書中提出的價值觀和原則。成員國也須公開推廣以倫理方式開發人工智慧的研究人員和公司的最佳實務,並與其合作。

108. 成員國須確保人工智慧研究人員接受研究倫理方面的訓練,並要求他們在設計、產品和出版物中納入倫理考慮,特別是在分析他們使用的資料集、資料註釋方式,以及可能應用的結果之資料的品質和範圍。

109. 會員國須鼓勵私營產業公司為科學界獲取其研究資料提供便利,特別是在中低收入國家,特別是最不發達國家、內陸發展中國家和小島嶼發展中國家。此等存取須符合相關的隱私和資料保護標準。

110. 為了確保對人工智慧研究進行嚴格評估並適當監督潛在的濫用或不利影響,成員國須確保人工智慧技術的任何未來發展都須基於嚴格和獨立的科學研究,並透過包括以下方式促進跨學科人工智慧研究:科學、技術、工程和數學(STEM)以外的學科,如文化研究、教育、倫理學、國際關係、法律、語言學、哲學、政治學、社會學和心理學。

111. 認識到人工智慧技術為幫助推進科學知識和實踐提供了巨大機會,特別是在傳統模型驅動的學科中,會員國須鼓勵科學界意識到使用人工智慧的好處、侷限和風險;這包括努力確保從資料驅動的方法、模型和處理方式中得到的結論是穩健和合靠的。此外,成員國須歡迎並支持科學界在制定政策和培養對人工智慧技術優缺點的認識方面發揮作用。

政策領域 9:溝通與資訊

112. 會員國須使用人工智慧系統改善擷取資訊和知識。這可以包括支持研究人員、學術界、記者、公眾和開發者,以增強言論自由、學術和科學自由、擷取資訊以及增加主動披露官方資料和資訊。

113. 會員國須確保人工智慧行動者尊重和促進言論自由以及有關自動生成內容、審核和管理的資訊擷取。適當的架構,包括法規,須使線上通訊和資訊營運商展現透明度,並確保用戶能夠獲得多樣化的觀點,以及及時通知用戶為何刪除或以其他方式處理其內容的原因的相關過程,以及允許用戶尋求補救的上訴機制。

114. 會員國須投資並促進數位、媒體和資訊涵養技能,以加強理解人工智慧系統的使用和影響所需的批判性思維和能力,從而減少和打擊虛假資訊、錯誤資訊和仇恨言論。該等努力須包括更好地理解和評估推薦系統的正面和潛在有害影響。

115. 會員國須為媒體創造有利環境,使其擁有權利和資源,有效報導人工智慧系統的益處與危害,並鼓勵媒體在其運作中合乎倫理地使用人工智慧系統。

政策領域 10:經濟與勞工

116. 會員國須評鑑並處理人工智慧系統對所有國家勞動市場的衝擊及其對教育需求的影響,特別重視經濟為勞力密集型國家。這可以包括在所有教育級別引入更廣泛的「核心」和跨學科技能,為當前勞動工人和新世代在快速變化的市場中找到工作提供公平的機會,並確保他們對人工智慧系統倫理方面有所認識。 「學習如何學習」、溝通、批判性思考、團隊合作、同理心以及跨領域知識轉移的能力等技能,須與專業技能、技術技能以及低技能任務一起教授。對所需技能保持透明,圍繞該等技能更新課程是關鍵。

117. 會員國須支持政府、學術機構、職業教育和訓練機構、產業界、工會組織和民間社會之間的合作協議,以縮小技能要求事項的差距,使訓練計劃和戰略與未來工作和發展的影響相一致,包括中小企業在內的產業界的需求。須推廣以專案為基礎的人工智慧教學方法,允許公共機構、私人企業、大學和研究中心之間建立夥伴關係。

118. 會員國須與私營產業公司、民間社會組織和其他利益相關者(包括勞動工人和工會)合作,確保帶有風險員工的公平過渡。包括實施技能提升和再訓練計劃,尋找在過渡時期留住員工的有效機制,以及為那些無法接受再訓練的員工探索「安全網」計劃。成員國須制定和實施計劃來研究和應對所發現的挑戰,其中包括技能提升和再訓練、加強社會保護、積極的產業政策和干預措施、稅收優惠、新的稅收形式等。成員國須確保有足夠的公共資金來支持該等計劃。須仔細審查稅收制度等相關法規,並在必要時進行修改,以抵消基於人工智慧的自動化造成的失業後果。

119. 成員國須鼓勵和支持研究人員分析人工智慧系統對當地勞動力環境的影響,以預測未來的趨勢和挑戰。該等研究須採用跨學科方法,調查人工智慧系統對經濟、社會和地理因素、人機互動、人與人際關係的衝擊,以便就重新訓練和重新部署最佳實務提供建議。

120. 成員國須採取適當措施,確保競爭性市場和消費者保護,考慮在國家、區域和國際層面採取可能的措施和機制,以防止在人工智慧系統的整個生命週期中濫用市場支配地位,包括 無論是資料、研究、技術或市場壟斷行為。成員國須防止由此產生的不平等,評鑑相關市場並促進競爭性市場。須適當考慮中低收入國家,特別是最不發達國家、內陸發展中國家和小島嶼發展中國家,該等國家由於缺乏基礎設施、人力和法規等因素,更容易受到濫用市場支配地位的影響。在已制定或採用人工智慧倫理標準的國家開發人工智慧系統的人工智慧行動者在出口該等產品、在可能不存在此類標準的國家開發或應用其人工智慧系統時須尊重該等標準,同時尊重適用的國際法和國家的國內立法、標準以及該等國家的慣例。

政策領域 11:健康與社會福祉

121. 會員國須努力採用有效的人工智慧系統以改善人類健康與保護生命權,包括減少疾病爆發,同時建立和維持國際團結面對全球健康風險和不確定性,並確保在全球健康風險和不確定性方面部署人工智慧系統。健康照護須符合國際法及其人權法義務。成員國須確保參與健康照護人工智慧系統的參與者考慮到患者與其家人和健康照護人員關係的重要性。

122. 會員國須確保與一般健康與心理健康相關的人工智慧系統的開發和部署受到法規管理,並適當關注兒童和青少年,以確保其安全、有效、高效、科學和醫學。已被證實並能夠實現基於證據的創新和醫學進步。此外,在數位健康干預措施的相關領域,強烈鼓勵會員國積極讓患者及其代表參與系統開發的所有相關步驟。

123. 會員國須特別注意透過以下方式規範人工智慧應用中健康照護的預測、檢測和治療方案:

(a) 確保監督以盡量減少和減輕偏見;

(b) 確保在開發演算法時,在所有相關步驟中將專業人員、患者、照護者或服務使用者納入團隊中作為「領域專家」;

(c) 由於可能需要接受醫療監測,適當地關注隱私,並確保滿足所有相關的國家和國際之資料保護要求事項;

(d) 確保有效的機制,使個人資料被分析的人了解並知情同意使用和分析其資料,同時不妨礙獲得健康照護;

(e) 確保人類照護以及診斷和治療的最終決定始終由人類做出,同時承認人工智慧系統也可以協助他們的工作;

(f) 必要時確保倫理研究委員會在人工智慧系統臨床使用前進行審查。

124. 會員國須進行研究,研究與人工智慧系統相關的心理健康潛在危害的影響和法規,例如深度抑鬱、焦慮、社會孤立、成癮、販運、激進化和錯誤資訊等。

125. 會員國須以研究為基礎,針對機器人的未來發展,制定人機互動及其對人與人關係的影響的準則,並特別關注人類的身心健康。須特別關注機器人在健康照護、老年人和身心障礙者護理、教育方面的使用,以及兒童使用的機器人、玩具機器人、聊天機器人以及兒童和成人的陪伴機器人。此外,須應用人工智慧技術的幫助來提高機器人使用的安全性和人體工學,包括在人機工作環境中。須特別注意利用人工智慧操縱和濫用人類認知偏見的可能性。

126. 會員國須確保人機互動遵守適用於任何其他人工智慧系統的相同價值觀和原則,包括人權和基本自由、促進多樣性以及保護弱勢群體或處於弱勢地位的群體。須考慮與人工智慧驅動的神經技術和腦機界面系統相關的倫理問題,以維護人類的尊嚴和自主權。

127. 會員國須確保使用者能夠輕鬆識別自己是否正在與生物互動,或與模仿人類或動物特徵的人工智慧系統互動,並能夠有效拒絕此類互動並請求人為干預。

128. 會員國須實施政策,提高對人工智慧技術和識別和模仿人類情感的技術擬人化的認識,包括採用這些技術時使用的語言,並評鑑此等擬人化的表現形式、倫理影響和可能的侷限性,特別是在機器人與人類互動的背景下,和當兒童參與時。

129. 會員國須鼓勵和促進對人與人工智慧系統長期互動的影響進行合作研究,特別關注該等系統可能對兒童和青少年產生的心理和認知影響。這須透過使用多種規範、原則、協議、學科方法,以及對行為和習慣改變的評估,以及對下游文化和社會影響的仔細評估來完成。此外,會員國須鼓勵研究人工智慧技術對健康系統績效和健康結果的作用。

130. 會員國以及所有利益相關者須建立機制,讓兒童和青少年有意義地參與人工智慧系統對其生活和未來影響的對話、辯論和決策。

五、監督和評估

131. 成員國須根據本國具體情況、治理結構和憲法規定,採用定量和定性相結合的方法,以可信任和透明地監督和評估與人工智慧倫理相關的政策、計劃和機制。為了支持會員國,教科文組織可以透過以下方式做出貢獻:

(a) 根據嚴格的科學研究和國際人權法,制定教科文組織人工智慧技術倫理衝擊評鑑(EIA)方法、在人工智慧系統生命週期各個階段實施的指南以及能力建設材料,以支持成員國努力對政府官員、政策制定者和其他相關人工智慧行動者進行環境衝擊評鑑方法的訓練;

(b) 制定教科文組織準備狀態評鑑方法,協助會員國沿著連續式各維度確定其準備行程特定時刻的狀態;

(c) 制定教科文組織關於事前和事後評估人工智慧倫理政策,針對既定目標的激勵措施的有效性和效率的方法;

(d) 加強人工智慧倫理政策的研究和以證據為基礎的分析和報告;

(e) 收集和傳播有關人工智慧倫理政策的進展、創新、研究報告、科學出版物、資料和統計資料,包括透過現有舉措,支持共享最佳實務和相互學習,並推動實施本建議書。

132. 和評估過程須確保所有利益相關者的廣泛參與,包括但不限於弱勢群體或處於弱勢地位的群體。須確保社會、文化和性別多樣性,以改善學習過程,加強調查結果、決策、透明度和結果當責制之間的聯繫。

133. 為了促進與人工智慧倫理相關的最佳政策和實踐,須制定適當的工具和指標,根據商定的標準、優先事項和目標,包括針對弱勢、邊緣化群體的具體目標,評鑑此類政策和實施方法的有效性和效率。以及人工智慧系統在弱勢人群、處於弱勢狀況的人群、個人和社會層面的衝擊。須根據相關風險以系統化的方式持續進行對人工智慧系統影響以及相關人工智慧倫理政策和實踐的監和評鑑。這須以國際商定的架構為基礎,並涉及對私營和公共機構、提供者和方案的評估,包括自我評估,以及追蹤研究和制定一系列指標。資料收集和處理須根據國際法、有關資料保護和資料隱私的國家立法,以及本建議書中概述的價值觀和原則。

134. 特別是,會員國不妨考慮可能的監和評估機制,例如倫理委員會、人工智慧倫理觀察站、涵蓋人工智慧系統符合人權和倫理發展的儲存庫,或透過處理遵守教科文組織涵蓋領域的倫理原則、經驗共享機制、人工智慧法規沙箱,以及供所有人工智慧行動者評估其遵守本文件中提到的政策建議的評估指南。

六、本建議書的使用與推廣

135. 成員國和本建議中所確定的所有其他利益相關者,須尊重、促進和保護本建議書中所識別出來的人工智慧倫理價值、原則和標準,並須採取一切可行步驟落實本建議書政策建議。

136. 會員國須努力擴大和補充其在本建議方面的行動,與所有相關的國家和國際政府和非政府組織以​​及跨國公司和科學組織合作,其活動屬於本建議的範圍和範圍。本建議書的目標。聯合國教科文組織倫理衝擊評鑑方法的發展,和人工智慧倫理國家委員會的建立,可以成為實現這一目標的重要工具。

七、推銷本建議

137. 教科文組織有責任成為促進和傳播本建議的主要聯合國機構,因此將與其他相關聯合國實體合作,同時尊重其職責並避免重複工作。

138. 教科文組織,包括其機構,如:世界科學知識和技術倫理委員會(COMEST)、國際生物倫理委員會(IBC)和政府間生物倫理委員會(IGBC),也將與其他國際、區域和次區域政府和非政府組織。

139. 儘管在教科文組織範圍內,促進和保護的任務屬於政府和政府間機構的權力範圍,但民間社會將是倡導公共部門利益的重要行為者,因此教科文組織需要確保和促進其合法性。

八、結束條款

140. 本建議書需要當作一個整體來理解,基本價值和原則須被理解為互補和相互關聯的。

141. 本建議書的任何內容均不得解釋為取代、改變或以其他方式損害國家根據國際法承擔的義務或權利,也不得解釋為允許任何國家、其他政治、經濟或社會行為者、團體或個人從事任何活動或下列行為:執行任何違反人權、基本自由、人類尊嚴以及對環境和生態系統(包括生物和非生物)的關注。

詳細內容參見建議書原文。


沒有留言:

張貼留言