人工知能(AI)技術の急速な発展により、人間の制御を必要としない自動化システムが数多く登場し、人々の物質的・文化的生活を大きく豊かにし、向上させています。もちろん、この技術は必然的に軍事分野に進出し、無人航空機、船舶、戦車、人型超知能戦闘ロボットなど、さまざまな自動化された兵器や装備を生み出すことになるでしょう。これらの兵器や装備は、起動すると、人間の介入なしに自動的に標的を選択し、行動を起こすことができるため、人々の懸念を招かざるを得ません。無差別に罪のない人々を殺害し、戦争の性質を変え、人類に深刻な危害をもたらすことになるからです。 そこで、次のような疑問が生じます。ロボットに人間の道徳を遵守させる方法はあるのでしょうか? 「殺人ロボット」をめぐる論争 この種の自動化兵器(一般に「殺人ロボット」として知られる)の開発と使用を開始した最初の国は米国であり、その後、英国、日本、ドイツ、ロシア、韓国、イスラエルなどの国々も独自のシステムを開発した。そのうち最も多いのはアメリカのドローンです。 イスラエルのハルピードローン 米軍は現在、手のひらサイズの超小型機から、ボーイング737を超える翼幅を持つ巨大航空機「グローバルホーク」まで、さまざまなタイプの無人機を7,000機保有していると報じられている。これらの無人機は一般にカメラや画像処理機を搭載しており、通信や制御システムなしで標的の破壊に派遣できる。米軍がアフガニスタンでドローンを大規模に使用し、多くの罪のない犠牲者を出したとの報道がある。 米国の大型無人偵察機RQ-4グローバルホーク 2020年3月、リビア内戦の戦場では、トルコ製の自爆ドローンが完全自律モードで兵士を攻撃する事態にまで発展した。国連安全保障理事会が発表した関連報告書は国際世論に衝撃を与え、深刻な道徳的・法的議論を引き起こした。支持者たちは、戦場ロボットが適切に使用されれば、兵士の死傷者を効果的に減らし、命を救うことができると信じている。しかし、科学界の一般的な見解は、戦場のロボットは自律能力を備えているだけでなく、生殺与奪の力を持っているため脅威である、というものだ。このため、国連は「殺人ロボット」の出現が戦争遂行に関する国際条約を揺るがしているとして、関連技術の開発の「凍結」を求める声明を発表した。最終的な目標は、そのような兵器の使用を永久に禁止し、ロボットに生殺与奪の権力を与えないことです。 興味深い実験 国連がこのような訴えをした理由は、ロボットは自分の行動に責任を持つことができないからである。ロボットは相手が人間か機械かを判断することはできるが、相手が兵士か民間人かを識別することはほぼ不可能である。兵士は常識を使って目の前の女性が妊娠しているか、爆発物を所持しているかを判断することができるが、ロボットにはおそらくそれができない。テロリストが自爆攻撃の代わりに「殺人ロボット」を使用するとしたら、それは現代の「パンドラの箱」を開けるようなものであり、悲惨な結果をもたらすだろう。 では、ロボットに「道徳観念」や「法的認識」を持たせ、慈悲深い心を持った「善人」になるようにプログラムする方法はあるのでしょうか?つまり、ロボットの行動を法的範囲内に制限することは可能でしょうか? これは興味深い疑問であり、一流の科学者のグループに刺激を与え、一部の科学者が実際の実験を行うきっかけとなりました。たとえば、英国ブリストルロボット研究所のアラン・ウィンフィールド氏とその同僚は、他の擬人化ロボットが穴に落ちないようにするロボットのプログラムを設計しました。これは、アメリカの有名なSF作家であるアイザック・アシモフが提唱した「ロボット工学三原則」に基づいて設計されています。 実験開始当初、ロボットは作業をスムーズに完了することができた。擬人化ロボットが穴に向かって移動すると、ロボットは急いで駆け寄ってロボットを押しのけ、穴に落ちないようにした。その後、研究者らはヒューマノイドロボットを追加し、2台のロボットが同時に洞窟の入り口に向かって移動し、救助ロボットに選択を迫った。時には、一人の「人」を無事に救出できたものの、もう一人の「人」が穴に落ちてしまうこともありました。何度か、両方の「人々」を救出したいと思ったことさえありました。しかし、33回のテストのうち14回では、どちらを救うべきか混乱しすぎて時間を浪費し、両方の「人」が穴に落ちてしまいました。この実験は公開され、世界から大きな注目を集めました。その後、ウィンフィールド氏は、救助ロボットは設定されたプログラムに従って他者を救助することはできるが、そのような行動の背後にある理由を全く理解しておらず、実際には「道徳的ゾンビ」であると述べた。 ロボットが人々の生活にさらに溶け込むようになると、これらの質問に対する明確な答えが必要になります。たとえば、自動運転車は将来、車内の乗員の安全と他の運転手や歩行者への危害とのバランスを取らなければならないかもしれない。この問題を解決するのは非常に難しい場合があります。しかし幸いなことに、いくつかのロボットは予備的な答えを提供できるかもしれない。米国ジョージア工科大学のコンピューター専門家、ロナルド・アーキン氏は、「道徳監督者」と呼ばれる軍用ロボット専用のアルゴリズムセットを開発した。模擬戦闘テストでは、ロボットが戦場で賢明な判断を下すのに役立ちます。例えば、学校や病院などの保護対象の近くでは射撃は禁止されており、死傷者は最小限に抑えられる必要があります。しかし、これは比較的単純な状況です。複雑な状況に遭遇した場合、結果は大きく異なることがよくあります。ロボットが道徳的、倫理的な選択を行えるかどうかという疑問に答えるのは、短期間でできるものではないようです。これには一連の極めて最先端かつ複雑な人工知能技術が含まれており、大幅な進歩を遂げるにはまだ長い道のりが残っています。 ロボットを「道徳的」にすることの難しさ これは人工知能技術の開発において遭遇する大きな問題です。この問題に正しく答えて解決するには、まず重要な点を明確にする必要があります。倫理基準を習得する必要があるのは人工知能自体なのか、それとも人間なのかということです。 1 世紀以上前、電気、特に電信の発明は人類の知能に悪影響を及ぼすだろうと警告した人もいました。人々は情報を伝達するために常に通信を使用し、考える時間がほとんどなくなるため、思考能力が弱まり、最終的には脳麻痺につながる可能性もあります。それから100年以上経った後、ソーシャルネットワークが無意味な情報で溢れているのを目にした人たちが、Googleに対して同様の警告を発し、前述の「思考力の弱体化」が現実のものとなったと誤解した。しかし、たとえ上記が真実だとしても、その原因を電気の発達に帰するのは不公平でしょう。なぜなら、大量のナンセンスの主たる原因は、明らかに電気技術ではなく、行為者としての人間の性質にあるからです。 現在、人工知能の発展は同様の状況に直面しています。一方では、人工知能があらゆる分野にもたらした比類のない巨大な推進力を人々は高く評価していますが、他方では、人工知能の潜在的な欠点のいくつかを懸念しています。 「殺人ロボット」の出現はその典型的な例だ。 人工知能の驚異的な力は、主にその驚くべきチューリング認識パターンを通じて機能します。例えば、COVID-19パンデミックの文脈では、無症状の感染者を特定し、それによって病気の拡散を防ぐことができます。絶滅危惧動物を毛皮の斑点によって識別・分類することができ、監視に役立ち、種の絶滅のリスクを軽減します。また、古代のテキストの痕跡を特定し、著者の数を決定することもできます。インテリジェントなアルゴリズムを通じて試験室内での異常な行動を判断し、不正行為者を特定することもできます... しかし、それにもかかわらず、人工知能技術は万能ではありません。その発展が徐々に人間の意識、感情、意志、道徳に関連する問題に触れるようになると、比較すると色あせてしまい、時には完全に無力にさえなります。これは、戦争の法則が何千年も前から存在しており、人間は感情やその他の要因に影響されてルールを破ることが多いが、ロボットはそうではないからです。この状況は哲学と倫理の一部となっています。したがって、人工知能における道徳的、倫理的問題を解決するには、単に技術的な観点から見るのではなく、哲学的、倫理的要素を考慮する必要があり、必然的に問題解決の難易度が増すことになります。 ロボットに人間の道徳を遵守させる方法 この困難は 2 つの側面に要約できます。まず、「危害を加える」という概念など、いくつかの抽象的な概念を扱うことが難しいことです。殺害は明らかに危害の一種ですが、ワクチン接種も痛みを引き起こし、場合によっては死に至ることもあります。では、どの程度までが「害」と定義できるのでしょうか? 2 つ目は、起こりうる危害の評価と、人間への危害を回避する必要性から生じます。インテリジェント システムが、同じ危害を与える可能性のある 2 つのターゲットに直面して、どちらをターゲットにすればよいか分からず途方に暮れる場合、そのシステムは成熟したシステムとは言えません。 この問題は解決が極めて難しく、「まったく解決不可能」とさえ考えられていますが、科学者たちは未知のものを探求し、困難を克服するペースを緩めていません。彼らは、ロボットが人間の道徳を遵守できるようにするにはどうすればよいかについて深く考え、多くのアイデア、提案、計画を提示しており、そのいくつかはすでにテストされています。要約すると、次のようになります。 まず、SFの巨匠アイザック・アシモフが提唱した「ロボット三原則」を参考に、知能ロボットは人間に危害を加えてはならない、また、不作為により人間に危害を加えてはならないと厳格な規制を定めています。違反した場合、関係する研究開発担当者または機関は処罰されます。 第二に、多数派に訴える視点を取ります。一般的に言えば、何が正しくて何が間違っているかは、大多数の利益によって決まることが多いです。たとえば、歩行者が関与する緊急かつ取り返しのつかない事故が発生した場合、自動運転車が乗員を救うべきか、歩行者を救うべきか、どちらをすべきかを決めなければならないとします。米国はかつて、こうした可能性のある決定を分析するために道徳マシンを使用し、ある行動が最大数の人々に最大の幸福をもたらすことができるのであれば、それは行う価値のある良いことだという結論を下した。ここでは、幸福が主要な目標です。 第三に、将来の戦場では、将来の兵士と対峙したときに本当のジレンマが生じるでしょう。将来の兵士が効果を発揮するには、脅威を排除する前に認識された脅威を排除しなければなりません。これは、特に戦闘環境にいる兵士に関しては、ロボットが特定の「倫理規則」に従うようにプログラミングすることで実現できる可能性がある。しかし、ロボットに組み込まれた「道徳的」制約が部隊の戦闘員を危険にさらす場合、指揮官はロボットのプログラミングが任務遂行の妨げになると考えるかもしれない。たとえば、AI システムは、実際には敵対する戦闘員やテロリストである民間人が殺害されるのを防ぐために、兵士の銃をロックすることができます。この観点からすると、都市テロ事件において誰が民間人で誰がそうでないかを判断することは不可能に思えます。したがって、ここでのプログラミングは、あらゆる分野のトップエキスパートがブレインストーミングを行い、協力して画期的な成果を達成することを必要とする、極めて複雑な技術です。 要約すると、ロボットが道徳的制約を受けることができるかどうかは大きな目標です。この目標を達成するための根本的な方法は、人工知能技術を倫理基準に適合させることではなく、人間が人工知能を開発し使用する際に倫理基準を遵守することです。倫理的なロボットが今のところ神話であるならば、倫理的な人間はそうではありません。したがって、世界中の科学者や軍司令官に対し、倫理的に行動し、必要な場合や自らの安全が危険にさらされている場合にのみ自律型兵器を使用するよう促すことは、完全に可能であり、絶対に必要です。この点について。人間は多くのことができる。人工知能の父、アラン・マシスン・チューリングはこう言った。「私たちはほんの少し先しか見ることができていないが、やるべきことが山ほどあることは分かっている。」したがって、見通しは明るいです。 米国のファランクス自動小銃システム 王瑞良 |
<<: 子供の頃のおやつ「千切りイチジク」はイチジクとは何の関係もないのでしょうか?
>>: AI対決:GoogleはOpenAIとの戦いをどう見ているのか?
毎年恒例の真夏が予定通り到来しました。この季節には美味しい食べ物が欠かせません。一年を通じてグルメチ...
肉は多くの人の好物です。肉にはより多くのタンパク質が含まれています。肉を長期間食べることは、人体の体...
悲劇が起こったとき、テスラのバッテリーデーはちょうど終わったところだった。海外メディアの報道によると...
今では多くの家庭にジューサーがあるので、スイカジュースの作り方を知っている人は多いでしょう。しかし、...
これもあなたの選択でしょうか?今iPhoneを買うように言われたら、どれを選びますか?手頃な価格でコ...
食べ物は多くの人の好物です。さまざまな食品には、非常に異なる栄養素が含まれています。たとえば、野菜に...
福建省泉州でよく食べられている地元のおやつ「ミミズゼリー」を知らない人も多いかもしれません。社会の発...
梨は水分を多く含む果物です。特に冬場は喉の渇きを癒すのにとても役立ちます。収量も非常に多く、栄養価も...
CCTVニュースによると、4月18日現在、少なくとも世界33の国と地域でXBB.1.16変異株の症例...
キジバトを食べたことがありますか?キジバトは美味しく、炒めたり、ソテーしたり、フライパンで焼いて詰め...
ラップトップ ユーザーにとって、マルチ スクリーン構成はほとんど手の届かないものでした。いわゆるポー...
イカリソウは一般的な漢方薬です。薬効があるだけでなく、健康にも良い効果があります。イカリソウを定期的...
暑い夏を迎えると、多くの人が、便通が悪くなったり、イライラしたり、不安になったり、尿が黄色くなったり...
皆さんは味噌をつけて蒸した魚を食べたことがありますか?味噌は特に南部ではよく食べます。多くの家庭では...
この記事は「Hunzhi」(WeChat ID: hey-stone)によって最初に公開されました。...