著者: 曹建鋒、テンセント研究所上級研究員 ファン・リンマン テンセント研究所 法律研究センター 研究助手 EUは人間中心のAI倫理とガバナンスを積極的に推進している デジタル技術の発展と普及により、社会と経済の変革が加速しています。人工知能(AI)は、中核的な原動力として、社会の発展にさらなる可能性を生み出しました。一般的に、AI とは、特定の情報内容に基づいて自律的に学習、意思決定、実行できるアルゴリズムまたはマシンを指します。その発展は、コンピュータの処理能力の向上、アルゴリズムの改善、およびデータの指数関数的な増加に基づいています。機械翻訳から画像認識、芸術作品の合成まで、AIのさまざまな応用が私たちの日常生活に入り始めています。現在、AI技術は教育、金融、建設、運輸などさまざまな業界や分野で広く活用され、自動運転、AI医療診断などさまざまなサービスの提供に活用され、人類社会に大きな変化をもたらしています。同時に、AIの発展は法律、倫理、社会にも課題をもたらし、フェイクニュース、アルゴリズムの偏り、プライバシー侵害、データ保護、ネットワークセキュリティなどの問題を引き起こしています。このような背景から、人工知能の倫理とガバナンスはますます注目を集めています。政府から産業界、学界に至るまで、人工知能に関する倫理ガイドラインの策定を模索する世界的な動きが起こっています。欧州連合は2015年からAI倫理とガバナンスの取り組みを積極的に模索してきました。AI技術の開発では主導権を握っていませんが、AIガバナンスでは世界の最前線に立っています。 欧州議会の法務委員会(JURI)は、2015年1月にはすでに、ロボットと人工知能の開発に関連する法的問題を研究するための作業部会を設立することを決定していました。 2016 年 5 月、JURI はロボット工学に関する民法規則に関する委員会への勧告を含む報告書草案を発表し、欧州委員会に人工知能の影響を評価するよう求めました。 2017年1月にはロボットに関する民事立法に関する広範な勧告を正式に提出し、「ロボット憲章」の策定を提案した。 [1] 2017年5月、欧州経済社会委員会(EESC)はAIに関する意見を発表し、倫理、セキュリティ、プライバシーなど11の分野にAIがもたらす機会と課題を指摘し、AI倫理基準の策定やAI監視・認証の標準制度の確立を求めました。 [2] 同年10月、欧州理事会は、EUは人工知能の新たな動向に対応するために緊急性を持ち、高いレベルのデータ保護、デジタル権利、関連する倫理基準の策定を確保する必要があると指摘し、欧州委員会に2018年初頭に人工知能の新たな動向に対応する方法を提案するよう要請した。[3] 人工知能の開発と応用によって生じる倫理的問題に対処するため、EUはAI倫理とガバナンスを今後の立法作業の重要な焦点として確立した。 2018年4月25日、欧州委員会は待望のEU人工知能戦略を示す政策文書「欧州のための人工知能」を発表しました。この戦略は、人間中心のAI開発の道筋を提案し、EUの科学研究レベルと産業能力を高め、人工知能とロボットがもたらす技術的、倫理的、法的、その他の課題に対応し、人工知能が欧州の社会と経済の発展にさらに貢献できるようにすることを目的としています。 EUの人工知能戦略には3つの柱がある。第1に、技術力と産業力を強化し、人工知能技術があらゆる分野に広く浸透することを促進すること。第二に、社会経済の変化に積極的に対応し、教育訓練制度が時代の変化に対応できるようにし、労働市場の変化を綿密に監視し、移行期の労働者を支援し、多様で学際的な人材を育成する。 3つ目は、適切な倫理的・法的枠組みを確立し、製品ルールの適用範囲を明確にし、AI倫理ガイドラインを起草・策定することです。 [4] 同年6月、欧州委員会は、欧州人工知能戦略の実施を支援するために、学界、産業界、民間社会から52名の代表者を任命し、AIに関するハイレベル専門家グループ(AI HELP)を結成した。 2019年1月、欧州議会の産業・研究・エネルギー委員会は、サイバーセキュリティ、人工知能とロボットの法的枠組み、倫理、ガバナンスなどを網羅した人工知能とロボットに関する包括的なEU産業政策を策定するよう欧州議会に求める報告書を発表した。 [5] 2019年4月、EUは信頼できるAIのための倫理ガイドライン(「倫理ガイドライン」)[6]とアルゴリズムの説明責任と透明性のためのガバナンスフレームワーク(「ガバナンスフレームワーク」)[7]という2つの重要な文書を発表しました。これらの文書は、EU の AI 戦略における「適切な倫理的および法的枠組みを確立する」という要件を具体的に実行したものです。これらは、将来の関連ルール策定の参考となり、AIガバナンスを推進するためのEUの最新の取り組みを表しています。 AI倫理フレームワークの構築:信頼できるAIのための倫理ガイド 技術革新と人権保護のバランスをとるためには、AI倫理の枠組みを構築することが不可欠です。倫理フレームワークは、人工知能の設計、開発、生産、使用に関する原則的なガイダンスと基本要件を提供し、その運用が法的、安全、倫理的基準に準拠していることを保証します。 「倫理ガイドライン」は AI HELP によって起草され発行されたもので、拘束力はありません。 EUは、すべての関係者に対し、「倫理ガイドライン」を積極的に実施し、AI倫理基準に関する国際的コンセンサスの形成を促進することを奨励しています。全体として、EU は、汎 EU 倫理ガイドラインの策定に加えて、AI の倫理的ガバナンスがさまざまなレベルで確保されることを期待しています。例えば、加盟国はAI倫理監視・監督機関を設立し、企業に倫理委員会の設置を奨励し、AI開発時の倫理ガイドラインを策定することで、AI開発者とその研究開発および応用活動を指導・制約することができます。これは、人工知能の倫理的ガバナンスが抽象的な原則のレベルにとどまらず、生きたメカニズムになるためには、さまざまな主体やさまざまなレベルの実践的な活動に統合される必要があることを意味します。 倫理ガイドラインによれば、信頼できるAIは次の3つの特性を備えている必要がありますが、これらに限定されるわけではありません。(1)合法性、つまり信頼できるAIは人々の基本的権利を尊重し、既存の法律を遵守する必要があります。 (2)倫理的遵守、つまり信頼できるAIは倫理的原則と価値観を遵守し、「倫理的目的」を満たすことを保証する必要がある。 (3)堅牢性、すなわち、技術や社会の発展の観点から、AIシステムは堅牢で信頼できるものでなければならない。なぜなら、AIシステムが倫理的な目的を満たしていたとしても、信頼できる技術のサポートがなければ、不注意で人間に危害を加える可能性があるからである。具体的には、信頼できる AI の倫理的枠組みには次の 3 つのレベルが含まれます。 1. 信頼できるAIの基盤 国際人権法、EU憲章、関連条約に規定されている基本的権利のうち、AIの発展の要件となり得る主なものには、個人の尊厳、個人の自由、民主主義、正義と法、平等、無差別と連帯、国民の正当な権利などが含まれます。多くの公的機関や民間組織が、基本的権利からインスピレーションを得て、AI システムの倫理的枠組みを開発しています。たとえば、科学と新技術の倫理に関する欧州グループ(EGE)は、EU憲章と関連規制の価値観に基づいて9つの基本原則を提案しています。 「倫理ガイドライン」は、既存の原則の大部分に基づいて、社会の発展の要件を満たす4つの倫理原則をさらにまとめ、信頼できるAIの基礎として、AIの開発、展開、使用に関するガイダンスを提供します。 これらの原則には、(1)人間の自律性の尊重が含まれます。 AIとやりとりする人間は、完全かつ効果的な自己決定能力を持つ必要があり、AIシステムは人間中心の哲学に従い、人間に役立ち、人間の認知を強化し、人間のスキルを向上させるために使用される必要があります。 (2)危害防止の原則AI システムは人間に悪影響を及ぼすことはできません。 AI システムとその動作環境は安全でなければなりません。 AI テクノロジーは堅牢でなければならず、悪意を持って使用されないようにする必要があります。 (3)公平性の原則AI システムの開発、導入、使用は、実質的かつ手続き上の公平性に準拠する必要があり、利益とコストの平等な分配を確保し、個人やグループが差別や偏見から保護されるようにする必要があります。さらに、AI およびその運営者の決定によって影響を受ける個人には、異議を申し立て、救済を求める権利があります。 (4)解釈可能性の原則AIシステムの機能と目的はオープンかつ透明でなければならず、AIの意思決定プロセスは、意思決定結果によって直接的または間接的に影響を受ける人々に可能な限り説明される必要があります。 2. 信頼できるAIの実現 倫理ガイドラインでは、AI の倫理原則に基づいて、AI システムの開発、展開、利用が満たすべき 7 つの主要要件を提示しています。具体的には、「倫理ガイドライン」における4つの倫理原則は、トップレベルの倫理的価値観として、信頼できるAIの研究開発と応用において最も基本的な指導的役割を果たしますが、7つの主要要件は、実施可能な倫理的要件です。つまり、AI 倫理は、マクロレベルのトップレベルの価値観からメソレベルの倫理的要件、そしてミクロレベルの技術的実装に至るまでのガバナンス プロセスです。 1. 人間の行為と監督 まず、AIは人間が基本的権利を行使するのを支援する必要があります。 AIが技術的能力の限界により基本的権利を侵害する可能性がある場合、AIシステムを開発する前に基本的権利影響評価を完了し、外部フィードバックメカニズムの構築を通じてAIシステムが基本的権利に及ぼす可能性のある影響を把握する必要があります。第二に、AI は個人が自分の目標に基づいてより情報に基づいた意思決定を行えるようにサポートする必要があり、個人の自律性は AI の自動意思決定システムによって影響を受けるべきではありません。最後に、「ヒューマン・イン・ザ・ループ」(AIシステムのあらゆる意思決定サイクルに人間が介入する)、「ヒューマン・オン・ザ・ループ」(AIシステムの設計サイクルに人間が介入する)、「ヒューマン・イン・コマンド」(AIの全体的な活動と影響を監視し、AIを使用するかどうかを決定する)などの適切な監視メカニズムを確立します。 2. 技術的な堅牢性とセキュリティ 一方で、AI システムの正確性、信頼性、再現性を確保し、AI システムの意思決定の精度を高め、評価メカニズムを改善し、システムの誤った予測によって引き起こされる予期しないリスクを迅速に削減する必要があります。一方、AI システムは、脆弱性やハッカーによる悪意のある攻撃を防ぐために厳重に保護する必要があります。予期しない結果やエラーを最小限に抑えるためにセキュリティ対策を開発およびテストする必要があり、システムの問題が発生した場合に実行可能なバックアップ プランが必要です。 3. プライバシーとデータガバナンス 収集された情報が不正に使用されないように、AI システムのライフサイクル全体を通じてユーザーのプライバシーとデータを厳重に保護する必要があります。データ内のエラー、不正確さ、偏りを排除しながら、データの整合性を確保し、AI データ処理の全プロセスを記録する必要があります。データアクセス契約の管理を強化し、データアクセスとフローの条件を厳密に制御します。 4. 透明性 AI の意思決定の結果を人間が理解し追跡できるようにするために、AI の意思決定データセット、プロセス、および結果のトレーサビリティを確保する必要があります。 AIシステムの意思決定結果が個人に重大な影響を及ぼす場合には、AIシステムの意思決定プロセスについて適切かつタイムリーな説明がなされるべきである。 AI システムに対するユーザーの全体的な理解を向上させ、ユーザーと AI システム間の相互作用を理解できるようにし、AI システムの正確性と限界をユーザーに正直に伝えます。 5. 多様性、差別の禁止、公平性 AI システムが社会的弱者や疎外されたグループに対して偏見や差別を引き起こすことを防ぐためには、AI システムをユーザー中心にし、誰もが AI 製品を使用したりサービスを受けたりできるようにする必要があります。幅広いユーザーのニーズを満たすために、ユニバーサル デザインの原則と関連するアクセシビリティ標準に従います。同時に、関係するステークホルダーが AI のライフサイクル全体に参加できるように、多様性を促進する必要があります。 6. 社会と環境の幸福 AI システムが持続可能な開発を促進し、生態環境を保護する責任を負うことを奨励し、AI システムを使用して地球規模の問題の研究と解決に取り組みます。理想的には、AI システムは現在の世代と将来の世代に利益をもたらすはずです。したがって、AI システムの開発、利用、展開では、環境、社会、さらには民主的な政治への影響を十分に考慮する必要があります。 7. 説明責任 まず、AI システムの開発、展開、使用の全プロセスを通じて責任主体を特定するための説明責任メカニズムを確立する必要があります。次に、アルゴリズム、データ、設計プロセスを評価するための AI システムの監査メカニズムを確立します。第三に、AIシステムが個人に及ぼす潜在的な悪影響を特定、記録、最小限に抑え、AIシステムが不公平な結果を生んだ場合には適時に適切な是正措置を講じます。 異なる原則や要件は、異なる利益や価値観を伴うため、本質的に互いに緊張関係にある可能性があることに注意する必要があります。したがって、意思決定者は、選択した内容を継続的に記録、評価、伝達しながら、実際の状況に基づいてトレードオフを行う必要があります。さらに、「倫理ガイドライン」では、説明可能なAI技術(Explainable AI、XAIと呼ばれる)の研究開発、監視モデルのトレーニング、AI監督の法的枠組みの構築、関連する業界ガイドライン、技術基準、認証基準の確立と改善、公衆の倫理意識を高めるための教育など、AIの開発、展開、使用が上記の要件を満たすことを保証するための技術的および非技術的な方法も提案しています。 3. 信頼できるAIの評価 上記の 7 つの主要要件に基づいて、倫理ガイドラインでは信頼できる AI の評価チェックリストも記載されています。評価チェックリストは、主に人間と対話する AI システムに適用されます。 7 つの主要要件の具体的な実装に関するガイダンスを提供し、経営、法務、研究開発、品質管理、人事、調達、日常業務など、企業や組織内のさまざまなレベルが共同で信頼できる AI の実現を確実にできるように支援することを目的としています。 「倫理ガイドライン」では、このリストに記載されている評価項目が必ずしも網羅的ではないと指摘されています。信頼できる AI を構築するには、AI 要件の継続的な改善と問題に対する新しい解決策の模索が必要です。すべての利害関係者は、AI システムがライフサイクル全体を通じて安全かつ堅牢に、合法かつ倫理的に動作し、最終的に人類に利益をもたらすことを保証するために積極的に参加する必要があります。 EU の見解では、人工知能倫理は倫理規範と技術的ソリューションの結合を必要とする体系的なプロジェクトであることがわかります。他国や国際社会におけるAI倫理の構築は、まだ抽象的な価値を抽出し合意を形成する段階にとどまっているかもしれないが、EUはそこから一歩進んで、トップダウン型のAI倫理ガバナンス枠組みの構築を模索し始めている。 AIアルゴリズムガバナンスに関する政策提言: この報告書は、アルゴリズム システムが社会、テクノロジー、規制にもたらす課題の分析に基づいて、アルゴリズムの透明性と説明責任のガバナンスに関する体系的な政策提言を提示しています。このレポートは、テクノロジー ガバナンスの高レベルな観点から始まり、さまざまな種類のガバナンス オプションについて詳細に説明し、最後に既存の文献におけるアルゴリズム システム ガバナンスに関する具体的な推奨事項を確認します。この報告書では、アルゴリズム システムのガバナンスに関する既存の推奨事項を徹底的に検討および分析した結果に基づいて、4 つの異なるレベルで政策推奨事項を提示しています。 1. アルゴリズムリテラシーの向上 アルゴリズムの説明責任を達成するための前提条件はアルゴリズムの透明性ですが、これはアルゴリズムのすべての技術的特徴を一般の人々が理解できるようにすることを意味するものではありません。報告書は、アルゴリズムの機能に関する幅広い理解はアルゴリズムの説明責任を果たすことにほとんど影響を及ぼさず、国民の意思決定に影響を与えたり、アルゴリズム システムに対する国民の全体的な理解を深めたりする可能性のある情報を含む簡潔で標準化された開示の方が効果的であると指摘しています。さらに、調査報道や内部告発も、アルゴリズムの不適切な使用を明らかにし、アルゴリズムの透明性と説明責任を実現する上で重要な役割を果たします。たとえば、ニューヨークタイムズはかつて、Uber が特定のアルゴリズム技術を使用して市の規制当局をマークし、回避していると報じました (このニュースは元 Uber 従業員によって明らかにされました)。この報道は直ちにマスコミや社会の幅広い注目を集め、規制当局も同社に対して調査措置を講じた。ニュース報道は、監督的役割を果たすだけでなく、シンプルでわかりやすい言葉でアルゴリズムに対する一般の人々の理解を深めることにも取り組んでいます。ニュースによる調査は、広範な社会的対話や議論を刺激し、新たな学術研究のきっかけとなることもあります。例えば、米国の一部の裁判所で使用されている犯罪リスク評価アルゴリズムシステムCOMPASにおける「機械による偏り」に関する非営利団体ProPublicaの報告書は、アルゴリズムの公平性に関する一連の研究を引き起こした。 これに基づき、ガバナンスフレームワークは、アルゴリズムに関する国民の認識を高めるためのいくつかの政策提言を提示している。(1) アルゴリズムの選択と意思決定の中核となる概念を国民が理解できるように教育する。 (2)アルゴリズムの必須開示内容を標準化する。 (3)「アルゴリズムの説明責任」に関するニュース報道に技術的支援を提供する。 (4)公益上の理由により、内部告発者が利用規約に違反したり、知的財産権を侵害したりした場合には、その責任を免除する。 2. 公共部門はアルゴリズムによる説明責任の仕組みを確立する 今日、ますます多くの公共部門が、オフィスの効率性を改善し、複雑なオフィスプロセスをサポートし、政策立案活動を支援するためにアルゴリズム システムを使い始めています。アルゴリズムに欠陥があれば、社会の弱い立場の人々に計り知れない影響を及ぼす可能性があります。したがって、公共部門は特に、健全なアルゴリズムの透明性と説明責任のメカニズムを確立する必要があります。検討できるガバナンス メカニズムの 1 つは、データ保護法のデータ保護影響評価 (DPIA) メカニズムに基づいて、アルゴリズム影響評価 (AIA) メカニズムを確立することです。このメカニズムにより、政策立案者はアルゴリズム システムの使用シナリオを理解し、アルゴリズムの意図された使用を評価して関連する推奨事項を作成し、アルゴリズムの説明責任メカニズムの確立に役立ちます。ガバナンス フレームワークによると、AIA プロセスには主に、公共部門の「アルゴリズム システム」の定義の公開、アルゴリズムの目的、範囲、使用目的、関連するポリシーまたはプラクティスの公開、アルゴリズム システムの自己評価の実行と公開、一般の参加、アルゴリズム評価結果の公開、および AIA の定期的な更新が含まれます。 3. 監督メカニズムと法的責任制度の改善 一方、広く求められながらも大きな議論を呼んでいるアルゴリズムの透明性に関しては、EUは人工知能技術そのものの特性を踏まえた比較的適切な提案を行っている。アルゴリズムの透明性は、アルゴリズムのすべてのステップ、その技術的原理、実装の詳細を説明することを意味するものではありません。アルゴリズム システムのソース コードを単に公開するだけでは、効果的な透明性を実現することはできません。むしろ、データのプライバシーが脅かされたり、テクノロジーの安全な適用に影響が及ぶ可能性があります。さらに、AIの技術的な特性を考慮すると、AIシステム全体を理解することは極めて困難であり、AIが行った特定の決定を理解することにも非常に有効です。したがって、現代の AI システムでは、特定の結果に至った経緯を説明することで透明性を実現することは、大きな技術的課題に直面し、AI の応用を大きく制限することになります。むしろ、AI システムの動作と意思決定において効果的な透明性を実現することがより望ましく、大きなメリットをもたらす可能性があります。たとえば、人工知能の技術的特性を考慮すると、GDPR では特定の自動化された決定についての説明は求められず、基礎となるロジックに関する意味のある情報と、自動化された決定の重要性と意図された結果の説明のみが求められます。 一方、人工知能アルゴリズムの規制に関しては、EUは、民間部門のほとんどではリソースが限られており、アルゴリズムによる意思決定結果が一般大衆に与える影響は比較的限られているため、アルゴリズムの影響評価などの強力な監督を課すべきではないと考えている。民間部門に AIA の導入を単純に義務付けると、負担する財務コストと管理コストがアルゴリズムがもたらすリスクに不釣り合いとなり、民間部門における技術革新と導入が妨げられることになります。したがって、低リスクのアルゴリズム システムは法的責任によって規制することができ、民間部門はより厳しい不法行為責任と引き換えに、アルゴリズムの透明性と AIA 要件を緩和することができます。ガバナンス フレームワークによれば、さまざまなレベルで対応する規制メカニズムを確立できます。深刻または不可逆的な結果を引き起こす可能性のあるアルゴリズムによる意思決定システムに対しては、AIA 要件を検討できます。一般的な影響のみを持つアルゴリズム システムの場合、システム オペレーターは、より厳格な不法行為責任を負うことが求められる一方で、アルゴリズム システムを評価および認証し、システムが最適な基準を満たしていることを保証する義務が軽減される可能性があります。同時に、アルゴリズムリスク評価の実施、侵害の疑いのある者によるアルゴリズムシステムの使用の調査、他の規制機関へのアルゴリズムシステムに関する助言の提供、標準化団体、業界、市民社会との調整による関連標準とベストプラクティスの決定などの責任を負う、専用のアルゴリズム規制機関の設立も検討される可能性がある。 4. アルゴリズムガバナンスに関する国際協力の強化 アルゴリズムシステムの管理と運用には、国境を越えた対話と協力も必要です。アルゴリズムの透明性と説明責任に対する国の規制介入は、保護主義と解釈されたり、外国の企業秘密にアクセスしようとする不適切な試みと見なされたりする可能性があります。したがって、ガバナンス フレームワークでは、アルゴリズム技術に関連する複数の利害関係者を国際的な対話に参加させ、ポリシーと専門知識を交換し、アルゴリズム ガバナンスのベスト プラクティスを議論して調整するために、恒久的なグローバル アルゴリズム ガバナンス フォーラム (AGF) を設立することを推奨しています。 EUの人工知能倫理とガバナンスからの啓蒙 過去20年間のインターネットの発展において、EUは米国や中国に遅れをとっており、法律や政策の違いが主な要因の一つとなっている。筆者が論文「インターネットのイノベーションと規制の関係について ― 米国、欧州、日本、韓国の比較を踏まえて」で指摘したように、EUのプラットフォーム責任、プライバシー保護、オンライン著作権などに関する制度規制は米国よりも早く、より厳しく、インターネットのイノベーションに適した法制度を提供していない。今日、インテリジェント時代を迎えるにあたり、ユビキタスなデータとアルゴリズムが、AI 主導の新しいタイプの経済および社会形態を生み出しています。 EUは人工知能の分野では依然として米国や他の国々に遅れをとっている。昨年施行された一般データ保護規則(GDPR)は、人工知能の開発と応用に特に大きな影響を与えました。多くの研究により、GDPR は欧州連合における人工知能やデジタル経済などの新技術や新しいものの発展を妨げ、事業運営に過度の負担と不確実性を加えていることがわかっています。 [8] 人工知能の分野に戻ると、EUは戦略、産業政策、倫理的枠組み、ガバナンスメカニズム、法的枠組みなどの制度構築を通じて、倫理的価値観が組み込まれた人工知能を開発、応用、展開し、国際舞台をリードすることを望んでいます。この点において、EU には独自の利点があります。しかし、こうした優位性が最終的に人工知能分野におけるEUの国際競争力につながるかどうかは、熟考する価値がある。全体として、EU の AI 倫理とガバナンスの調査は、私たちに 3 つのインスピレーションを与えてくれます。 1. 倫理的ガバナンスの技術的道筋を探る 明らかに、人工知能の将来の発展がもたらす倫理的、社会的影響を考えると、倫理を人工知能の研究開発の基本的な構成要素とし、人工知能倫理研究と倫理ガバナンスのメカニズムの構築を強化する必要があります。現在、人工知能の倫理的ガバナンスの実現には、立法や監督に頼るよりも、産業と技術の力に頼る必要があります。テクノロジーとビジネス モデルが急速に進化しているため、文書化された法律や規制ではテクノロジーの発展のペースに追いつくことが難しく、逆効果や予期せぬ影響をもたらす可能性があります。特に技術開発の初期段階では、標準、業界の自主規律、倫理的枠組み、ベストプラクティス、技術ガイドラインなどのより柔軟なガバナンス手法がますます重要になります。さらに、プライバシーとデータ保護の面では、プライバシー・バイ・デザイン(PbD)の概念が過去10年間で大きな活力を獲得し、テクノロジーとデザインによる個人のプライバシーの保護がデータ保護メカニズムの不可欠な部分となっています。暗号化、匿名化、差分プライバシーなどの技術的メカニズムが重要な役割を果たします。この概念は人工知能の分野にも移植できるため、欧州連合は「倫理的設計」(略してEbD)を提案しました。今後は、標準、技術ガイドライン、設計原則などを通じて「倫理バイデザイン」の概念に活力を与え、人工知能製品やサービスの設計において倫理的価値や要件を構成要素に変換し、技術に価値を埋め込むことが必要になるでしょう。 2. 多様な利害関係者による協働ガバナンスモデルの採用 現在、人工知能は驚異的なスピードで経済・社会と融合し、構築されつつあります。高度に専門化され、技術的かつ複雑であるため、部外者がそのリスクや不確実性を正確に判断し、理解することは困難です。そのため、一方では、意思決定者と実務者の間の断絶を回避するために、規制当局、意思決定者、学界、産業界、社会公共機関、専門家、実務者、一般市民などが、多様な利害関係者の協働的な参加を通じて、新技術のガバナンスに参加できるようにする必要がある。一方、科学技術の倫理教育と宣伝を通じて科学研究者と一般大衆の倫理的認識を高める必要があります。そうすれば、狭い経済的利益を考慮するだけでなく、技術開発と応用の潜在的な影響とその予防の潜在的な影響と予防思考に関与することも必要です。そうしてはじめて、幅広い社会的参加と学際的な研究を通じて、最先端のテクノロジーの優れたガバナンスを達成することが可能になります。したがって、EUは、人工知能の倫理的ガバナンスには、さまざまなエンティティによるさまざまなレベルの保護手段が必要であると考えており、したがって、政府、産業、公共、およびその他のエンティティがそれぞれのレベルで保護手段を確立することを必要とします。 3. AI倫理とガバナンスに関する国際協力の強化 人工知能の開発は、データフロー、データ経済、デジタルエコノミー、ネットワークセキュリティなどに密接に関連しています。さらに、人工知能の研究と適用には、国境と国際労働部などの特性があり、倫理とガバナンスの国際協力と調整を強化する必要があります。たとえば、2019年5月22日、OECD加盟国は、人工知能の原則、つまり信頼できるAIの責任あるスチュワードシップの原則を承認しました。この倫理原則には、包括的な成長、持続可能な開発と幸福、人々中心の価値と公平性、透明性と説明可能性、堅牢性と安全性とセキュリティ、責任など、合計5つの原則があります。 [9] 2019年6月9日、G20は人間中心のAI原則を承認しました。その主な内容は、OECD人工知能の原則から派生しています。これは、世界中の政府によって署名された最初のAI原則であり、将来的には国際標準になると予想されています。これは、実用的で柔軟な基準と柔軟なガバナンス方法を備えた、人々指向の開発概念の下で人工知能の開発を促進し、AI知識の共有と信頼できるAIの構築を共同で促進することを目的としています。 [10]人々指向のAI開発の概念が国際社会でコンセンサスを獲得していることがわかります。この概念のガイダンスの下で、国際的な対話と交流を深め、国際レベルで調整された共通のAI倫理とガバナンスの枠組みを達成し、信頼できる倫理的AIの研究開発と適用を促進し、AIの開発と適用によってもたらされる可能性のある国際的およびその他のリスクを防ぎ、科学とAIの福利厚生に使用されることを保証する必要があります。 参考文献: [1] // www.europarl.europa.eu/doceo/document/a-8-2017-0005_en.html?redirect [2] https://www.eesc.europa.eu/en/our-work/opinions-nformation-reports/opinions/artificial-intelligence [3] https://www.consilium.europa.eu/media/21620/19-euco-final conclusions-en.pdf [4] https://ec.europa.eu/digital-single-market/en/news/communication-artificial-intelligence-europe [5] https://www.europarl.europa.eu/doceo/document/a-8-2019-0019_en.html#title2 [6] https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai [7] // www.europarl.europa.eu/thinktank/en/document.html?reference = eprs_stu(2019)624262 [8] https://itif.org/publications/2019/06/17/what-evidence-shows-about-impact-gdpr-1年 [9] https://www.oecd.org/oving-digital/ai/principles/ [10] https://g20trade-digital.go.jp/dl/ministerial_statement_on_trade_and_digital_economy.pdf 出典: |
<<: 10月25日、多数の有名企業が南京に集まり、ドローンシェアリング業界イベントに参加しました。
>>: 温州ラジオテレビ事件を思い出すと、大型テレビは再び政策批判に直面することになるのだろうか?
「アップルの携帯電話は、バッテリーの耐久性があまり良くなく、少なくとも1日に1回は充電する必要があ...
夏に下痢や赤痢になった場合はどうすればいいですか?空芯菜は下痢を止め、赤痢を治すことができますか?夏...
過酸化水素は私たちの生活の中でよく目にする医療用消毒剤です。過酸化水素はその化学的性質により、非常に...
杜仲と豚腎臓の煮込みはとても有名な薬膳です。杜仲と豚腎臓の煮込みの調理法はいろいろありますが、主な材...
基本的にアヒルのあらゆる部位がよりおいしい料理を作るのに使用できるため、アヒルは食生活において多くの...
2024年7月27日、「北京中軸―中国の理想の首都秩序の傑作」が正式に世界遺産リストに登録され、北...
数千万人のユーザーを抱えていると主張していた企業が、投資資金に頼って2、3年生き延びた。その後、ユー...
健康的な生活への関心が高まる現代社会では、スポーツに熱中する人が数多く登場しています。彼らは、ランニ...
バーベナは栄養価と薬効が非常に高い植物です。バーベナを定期的に食べると、熱を取り除いて解毒することが...
今は早春で、風はまだ少し冷たく感じますが、日差しは穏やかになってきました。何千本もの木々がちょうど新...
緑豆もやしは、皆さんも日常的に食べたことがあると思います。緑豆から栽培される緑豆もやしは、緑豆よりも...
ゲンダ野菜はスイスチャードや厚皮野菜とも呼ばれます。ゲンダ野菜は栄養価が非常に高く、ビタミンが豊富に...
妊娠中、特に食事に関しては、女性が注意すべきことがたくさんあります。妊娠した後は特に注意する必要があ...
駐馬店市の3歳の男の子が体温計を噛み砕き、水銀を飲み込んでしまい、両親と医師が冷や汗をかく事態となっ...
執筆者: ウー・ティンティン編集者:コウ・ジェンチャオレイアウト: 李雪偉現在、深刻な地球規模の生態...