一見繁栄しているように見えるものの、人工知能の開発は困難に陥っている

一見繁栄しているように見えるものの、人工知能の開発は困難に陥っている

ワイアード誌は最近発売された12月号の表紙記事で人工知能の発展について報じた。現在、ディープラーニングは推論ができないというジレンマに直面しており、つまり機械に人間のような知能を持たせることはできないのです。しかし、機械における実際の推論はどのようなものなのでしょうか?ディープラーニングが目標達成に役立たないなら、何が役立つのでしょうか?この記事の著者は Clive Thompson (@pomeranian99) で、元のタイトルは「人工知能に常識を教える方法」です。

1つ、

5年前、ロンドンを拠点とする人工知能企業DeepMindのプログラマーたちは、AIが古典的なアーケードゲームの遊び方を自ら学習する様子を興奮しながら見守っていた。彼らは、現在最も注目されている技術の 1 つであるディープラーニングを使用して、一見「素晴らしい」タスクである Breakout をマスターしました。

これはAtariが開発したゲームです。このゲームでは、下のプレートを動かしてボールを跳ね上げ、上のレンガをすべて倒す必要があります。

ディープラーニングは機械が自ら学習する方法です。 AIに大量のデータを入力すると、AIが独自にパターンを認識します。このゲームでは、データは画面上のアクティビティ、つまりレンガ、ボール、プレーヤー パッドを表すピクセル ブロックです。

DeepMind の AI は階層化されたアルゴリズムで構成されたニューラル ネットワークであり、Breakout の仕組み、ルール、目的、さらにはプレイ方法についても何も知りません。エンコーダーは、ボールがバウンドするたびに、ニューラル ネットワークに各アクションの結果をチェックさせるだけです。これはどこへつながるのでしょうか?

かなり印象的なスキルを持っていることが判明しました。最初の数回のゲームでは、AI は下のタブレットを制御して動かすだけでした。しかし、数百回プレイすると、ボールを正確にバウンドさせるようになりました。 600 ゲーム目までに、ニューラル ネットワークは熟練した人間のブレイクアウト プレイヤーが使用する動きを使用して、レンガの列全体を削り取り、ボールを壁の上部に沿って跳ね返らせました。

「これは我々にとって大きな驚きだ」とディープマインドのCEOデミス・ハサビス氏は当時語った。 「この戦略は完全に基礎となるシステムから生まれたものです。」

人間と同じくらい繊細に考えることができることを示したこの AI は、Breakout の背後にある内部概念を理解しました。ニューラル ネットワークは人間の脳の構造を大まかに反映しているため、理論的には、人間自身の認知スタイルのいくつかの側面を模倣するはずです。この瞬間は、その理論が正しいことを証明したように思えた。

昨年、サンフランシスコに拠点を置く人工知能企業、Vicorance のコンピューター科学者たちが、興味深い現実検証を行った。彼らは、DeepMind が使用している AI に似た AI を採用し、Breakout でトレーニングしました。

結果は素晴らしかったです。しかしその後、ゲームのレイアウトが少し調整されました。ある反復では、彼らはスラブをさらに高く上げました。別の例では、その上に突破不可能なゾーンを追加しました。

人間のプレイヤーはこれらの変化に素早く適応できますが、ニューラル ネットワークはそれができません。この一見賢い AI は、何百ものゲームを習得して得たブレイクアウト方式しかプレイできません。新たな変化に対応できません。

「私たち人間は単なるパターン認識者ではない」と、コンピューター科学者であり、Vicarious の共同設立者の一人であるディリープ・ジョージ氏は私に語った。 「私たちは、私たちが見ているもののモデルも構築しています。これらは因果モデルであり、原因と結果についての私たちの理解に基づいています。」

人間は周囲の世界について推論し、論理的な推論を行うことができ、新しい状況を発見するのに役立つ常識的な知識を豊富に持っています。先ほどプレイしたゲームとは少し違う Breakout ゲームを見ると、そのゲームはおそらくほぼ同じルールと目的を持っていることに気づきます。

しかし一方で、ニューラル ネットワークは Breakout について何も知りません。できるのはパターンに従うことだけです。パターンが変わると何もできなくなります。

ディープラーニングは人工知能の王様です。 AI が主流になってから 6 年が経ち、AI は機械が周囲の世界を認識し理解するのを支援する主な手段となりました。

これは、Alexa の音声認識、Waymo の自動運転車、Google の即時翻訳に採用されています。ある意味、Uber のネットワークは、機械学習を使用して乗客が車を必要とする場所を把握するという、巨大な最適化問題でもあります。中国のテクノロジー大手、百度にはニューラルネットワーク人工知能に取り組むエンジニアが2,000人以上いる。

長年にわたり、ディープラーニングはどんどん進歩し、必然的に人間と同じくらい流動的で柔軟な知能を持つ機械の実現につながっているように見えました。

しかし、ディープラーニングは困難に直面していると考える人もいます。彼らによると、それだけでは広義の知能は決して生み出されないという。なぜなら、真の人間のような知能には、パターン認識以上のものが含まれるからだ。

AIに常識を与える方法を考え始める必要があります。そうしないと、視覚認識システムがいくつかの入力を変更するだけで簡単に騙されるのと同じように、ディープラーニングの限界にぶつかり続けることになると彼らは警告している。たとえば、ディープラーニングモデルにカメを銃だと思わせることができるのだ。

しかし、もし我々が成功すれば、散らかった家の中を自由に動き回る医療用ロボットや、誤検知をしない不正検出システムなど、より安全で便利なデバイスが爆発的に増える可能性があると彼らは言う。

しかし、機械における実際の推論はどのようなものなのでしょうか?ディープラーニングが目標達成に役立たないのであれば、何が役立つのでしょうか?

二、

ゲイリー・マーカスは、眼鏡をかけた、心配そうな48歳のニューヨーク大学の心理学と神経科学の教授です。彼はおそらくディープラーニングに対する最も有名な反対者でしょう。

マーカスは、ニューラル ネットワークがまだ実験段階だった 1980 年代と 1990 年代に初めて人工知能に興味を持ち、それ以来ずっと同じ主張を続けています。

「遅刻しただけでなく、パーティーでトイレに行こうとしていたんだ」とニューヨーク大学近くの彼のアパートで会ったとき、マーカスは私に言った。 (私たちは個人的な友人でもあります。) 「ディープラーニングが最初に爆発的に普及し始めたとき、私は『これは間違った方向だよ、みんな!』と思いました。」

当時、ディープラーニングの背後にある戦略は現在と同じでした。機械にヒナギクを認識するように自ら学習させたいとします。まず、アルゴリズムの「ニューロン」をいくつか記述し、それらをサンドイッチのように層ごとに接続する必要があります (複数の層を使用すると、サンドイッチは厚くなり、深くなります。これが「ディープ」ラーニングです)。

最初の層にデイジーの画像を読み込むと、ニューロンは、その画像が以前に見たデイジーの例に似ているかどうかに基づいて判断を下します。次に信号は次の層に移動し、そこでプロセスが繰り返されます。最終的に、これらの層は結論につながります。

最初、ニューラル ネットワークは単なる推測を行います。それは多かれ少なかれ白紙の状態から始まります。重要なのは、有用なフィードバック ループを作成することです。 AI がデイジーを識別できないたびに、その一連の神経接続によって誤った推測につながるリンクが弱まりました。成功すれば、それは強化されます。

十分な時間と十分な数のヒナギクの例があれば、ニューラル ネットワークはより正確になります。いくつかのヒナギクの模様を直感的に理解できるようになり、毎回ヒナギク(ヒマワリや菊ではなく)を認識できるようになりました。

単純なネットワークから始めて繰り返しトレーニングするというこの中心的なアイデアは、時間の経過とともに改善され、ほぼどこにでも適用できるようです。

しかし、マーカスは決して納得しませんでした。彼にとって、問題は白紙の状態にある。つまり、人間が周囲の世界を観察するだけで知能を構築するのと同じように、機械も知能を構築できると想定しているのだ。

しかし、マーカスは人間はそういう風に動くとは思っていません。彼はノーム・チョムスキーの知的発達理論を信奉しており、人間は白紙の状態ではなく、学習の才能、言語を習得し、物理的世界を解釈する能力を持って生まれるとしている。

彼は、多くの人がニューラルネットワークは知的であると信じているにもかかわらず、ニューラルネットワークは人間の脳のようには機能しないようだと指摘した。まず、彼らはデータに飢えています。

ほとんどの場合、各ニューラル ネットワークを学習するには数千または数百万のサンプルが必要です。さらに悪いことに、ニューラル ネットワークに新しい種類のアイテムを認識させたい場合には、毎回最初からトレーニングする必要があります。カナリアを認識するニューラル ネットワークは、鳥の鳴き声や人間の話し声を認識するのにはまったく役に立ちません。

「学習するのに大量のデータは必要ありません」とマーカス氏は言う。彼の子供たちは、乗り物を認識するのに何百万台もの車を見る必要はありません。さらに良いことに、彼らは「抽象化」できるので、初めてトラクターを見たときに、それが車に少し似ていることがわかります。反事実的な状況にも取り組むことができます。

Google 翻訳はフランス語を英語に翻訳できます。しかし、その言葉が何を意味するのかは分かりませんでした。マーカスは、人間は文法パターンを理解するだけでなく、文法の背後にある論理も理解していると指摘しています。子供に「pilk」などの偽の動詞を与えると、その子供はおそらく過去形が「pilked」であると推測するでしょう。もちろん、彼女はその単語を以前に見たことがありませんでした。彼女はこれに対する「訓練」を受けていませんでした。彼女は言語がどのように機能するかという論理の一部を直感的に理解し、それを新しい状況に適用することができました。

「こうしたディープラーニングシステムは抽象的な知識を統合する方法を知りません」と、より少ないデータで学習する AI を開発した会社を設立し、2016 年に Uber に売却したマーカス氏は言う。

今年初め、マーカス氏はarXivでホワイトペーパーを発表し、新たなアプローチがなければディープラーニングは現在の限界を突破できないかもしれないと主張した。必要なのは、世界について推論するのに役立つ補足的または組み込みのルール、つまりちょっとした刺激です。

三つ、

オーレン・エツィオーニはいつも笑顔です。彼はシアトルのアレン人工知能研究所を運営するコンピューター科学者です。

彼は明るいオフィスで私を迎え、機械知能についての考えが走り書きされたホワイトボードの前まで案内してくれた。 (「成功の定義」、「使命とは何か?」)外では、若い AI 研究者たちがヘッドフォンをつけてキーボードを叩いていました。

エツィオーニ氏と彼のチームは常識の問題に取り組んでいます。彼はこれを、IBMのディープ・ブルーが1997年にチェスのグランドマスター、ガルリ・カスパロフを破ったこと、そしてディープマインドのアルファ碁が昨年、世界トップの囲碁プレイヤー、イ・セドルを破ったことという2つの伝説的なAIの瞬間と定義した。 (Googleは2014年にDeepMindを買収した。)

「ディープ・ブルーを使えば、部屋が燃えているときでも私たちのプログラムは超人的なチェスの動きをすることができます」とエツィオーニ氏は冗談を言った。 「そうでしょう? まったく文脈が欠けています。20年が経ち、部屋が燃えているときにも超人的な囲碁の動きができるコンピューターが誕生しました。」

もちろん、人間にはこのような制限はありません。火事が起きたら、人々は警報を鳴らしてドアに向かって走ります。

言い換えれば、人間は世界についての基本的な知識(火は物を燃やす)と推論する能力(制御不能な火事には近づかないようにするべきである)を備えているということです。

AI が本当に人間のように考えるようにするには、物理​​学 (空中に投げたボールは落ちる) や相対的な大きさ (象は浴槽に入らない) など、すべての人間が知っている事柄を AI に教える必要があります。 AIがこれらの基本概念を獲得するまでは、推論することはできないだろうとエツィオーニ氏は考えている。

ポール・アレンが数億ドルを投資し、エツィオーニ氏と彼のチームは、既存のニューラルネットワークに適合する常識推論レイヤーの開発に取り組んでいる。 (アレン研究所は非営利団体なので、発見したものはすべて誰でも利用できるように公開されます。)

彼らが直面する最初の問題は、「常識とは何か?」という質問に答えることです。

エツィオーニはそれを、私たちが世界について当然のこととして受け止めているが、めったに口にしない知識のすべてであると説明しています。彼と彼の同僚は、真に合理的な AI が答えられるはずの一連のベンチマーク質問を作成した。「靴下を引き出しに入れたら、明日もそこに残っているだろうか?」誰かのつま先を踏んだら、怒られるでしょうか?

この知識を獲得する一つの方法は、それを人間から抽出することです。エツィオーニの研究室は、Amazon Mechanical Turk のクラウドソーシング労働者に報酬を支払い、常識的な文章の作成を手伝ってもらっている。

その後、研究チームはさまざまな機械学習技術(昔ながらの統計分析やディープラーニングニューラルネットワークなど)を使用して、これらのステートメントをトレーニングしました。正しく実行すれば、テキストを理解するためのセット、物理学を把握するためのセットなど、コンピューター推論の再利用可能な「レゴブロック」を生成できるとエツィオーニ氏は考えている。

エツィオーニ氏のチームで常識を研究する科学者の一人、イェジン・チェ氏は、いくつかのクラウドソーシングの取り組みを主導した。あるプロジェクトでは、人の行動を理解したり、人の根底にある意図や感情を表現したりできる AI を開発したいと考えています。

彼女はまず、何千ものオンラインストーリー、ブログ、ウィクショナリーの慣用句のエントリを精査し、「ジェフがロジャーを意識不明にした」などの「フレーズイベント」を抽出しました。次に、彼女は各フレーズ(「X が Y を意識不明にした」)を匿名で録音し、Mechanical Turk のクラウドソーシングの人間に、X の意図を説明するよう依頼します。なぜ彼らはそんなことをしたのか?

彼女は、ラベル付けされた文章を 25,000 個収集した後、それらを使用して機械学習システムをトレーニングし、これまでに見たことのない文章を分析して文章の感情や意図を推測できるようにしました。

新しいシステムは、せいぜい半分の時間しか正常に動作しませんでした。しかし、実際に動作してみると、驚くほど人間らしい認識力を発揮した。「オーレンは感謝祭のディナーを作った」といった文章を入力すると、オーレンが家族に感銘を与えようとしていると予測したのだ。

「たとえ言及されていなくても、他の人の反応について推測することもできます」とチェイ氏は語った。 「そうすれば、Xさんの家族は感動し、愛されていると感じるかもしれません。」

彼女のチームが構築した別のシステムは、Mechanical Turk プラットフォーム上のクラウドソーシングされた人間を利用して、物語の中で人々の精神状態にラベルを付けました。結果として得られるシステムは、新たな状況が与えられた場合にも「鋭い」推論を導き出すことができる。

例えば、音楽のコーチがバンドの演奏が下手だったことに激怒し、「コーチは怒りのあまり椅子を投げつけた」と言ったそうです。物語では明確に述べられていないものの、AIは「後で恐怖を感じる」だろうと予測する。

Cui Yejin、Etzioni、およびその同僚たちはディープラーニングをあきらめていません。実際、彼らはそれが非常に便利なツールだと考えています。しかし彼らは、私たち全員が持っている奇妙で無形の暗黙の知識を人々に明示的に述べるよう説得するための近道があるとは考えていません。

ディープラーニングは、ゴミを入れればゴミが出てくる。ニューラル ネットワークに大量のニュース記事を入力するだけでは不十分です。なぜなら、ニューラル ネットワークは、ライターが言及したくない明白な暗黙の知識を吸収しないからです。

崔イェジン氏は「『私の家は私より大きい』とは言わない」と話す。この問題を解決するために、彼女は Mechanical Turk プラットフォームのクラウドワーカーに、「X は Y を投げた」など 1,100 個の一般的な動詞が暗示する物理的な関係を分析するよう依頼した。これにより、「Oren はボールを投げました」という文からボールは Oren よりも小さいはずだと推論するために使用できる単純な統計モデルが提供されます。

もう一つの課題は視覚的推論です。エツィオーニ氏のチームのもう一人の AI 科学者、アニルダ・ケンバビ氏は、画面上を動き回る仮想ロボットを見せてくれた。アレン研究所の他の科学者たちは、食器が詰まった食器棚や、好きなように配置でき、現実世界の物理法則に準拠したソファなど、日常的な品々で満たされたシムズのような家を建てた。

次に、彼らは腕の付いた暗い灰色のゴミ箱のようなロボットを設計し、特定の物体を探すように指示しました。何千ものタスクを完了した後、ニューラル ネットワークは現実世界での足場を獲得しました。

「『トマトはある?』と聞くと、 「すべての食器棚が開くわけではない。冷蔵庫が開く可能性が高い」とケンボー氏は言う。 「あるいは、『鍵を探して』と言えば、ロボットはテレビを持ち上げようとはしません。テレビの後ろに隠れます。ロボットは、テレビは通常取り上げられないことを学習しているのです。」

エツィオーニ氏と彼の同僚たちは、チェイ氏の言語推論、視覚的思考、そしてAIに教科書的な科学情報を理解させるために彼らが行っているその他の研究など、さまざまな要素が最終的に統合されることを期待している。

しかし、どれくらいの時間がかかり、最終製品はどのようなものになるのでしょうか?彼らは知らない。彼らが構築している常識的なシステムは、時には半分以上が間違っていることもあります。

崔イェジン氏は、さまざまな言語パーサーをトレーニングするには約100万の人工言語が必要になると見積もっている。常識を築くことは非常に難しいようです。

4、

機械を製造するための合理的な方法は他にもありますが、より労働集約的になります。たとえば、座って、世界がどのように機能するかを機械に伝えるすべてのルールを手書きで書き出すことができます。 Doug Lenat の Cyc プロジェクトはこのように機能します。

レナートは34年かけてエンジニアと哲学者のチームを雇い、「水は濡れている」や「ほとんどの人は友達の名前を知っている」といった2500万の常識的なルールをプログラムした。これにより、Cyc は次のように推測できました。「シャツが濡れているということは、おそらく雨に降られていたのでしょう。」利点は、Lenat が Cyc データベースに何を入力するかを正確に制御できることです。しかし、クラウドソーシングされた知識の場合はそうではありません。

粗雑な手作業で作られたこの種の人工知能は、ディープラーニングの世界では不評となっている。その理由の1つは、AIが「脆弱」になる可能性があることです。つまり、世界に対する適切なルールがなければ、AIは問題に巻き込まれる可能性があるのです。これが、プログラムされたチャットボットが非常に愚かである理由です。質問にどう答えるかを明示的に指示されなければ、彼らにはそれを推論する方法がありません。

Cyc の機能はチャットボットの域を超えており、医療システム、金融サービス、軍事プログラムでの使用が承認されています。しかし、作業は時間がかかり、費用もかかります。レナート氏は、Cycの開発には約2億ドルの費用がかかったと述べた。

しかし、少しずつ手動でプログラミングすることは、チョムスキー派によれば、人間の脳が持つ固有の知識の一部を複製しているだけかもしれない。

ディリップ・ジョージと研究者たちがブレイクアウトでやったことはまさにそれです。ゲームレイアウトの変化に直面しても「愚か」にならない AI を作成するために、ディープラーニングを放棄し、基本的な仮定をハードコードしたシステムを構築しました。

ジョージは、彼らの AI が「物体が存在し、物体は互いに作用し合い、物体の動きは他の物体との衝突と因果関係がある」ということを難なく学習したと私に話しました。

ブレイクアウトでは、このシステムにより、さまざまな行動方針とその可能性のある結果を比較検討する能力が養われます。しかし、これも逆の効果をもたらしました。 AI が画面の左上隅にあるレンガを壊したい場合、合理的にタブレットを右端隅に配置します。

つまり、Vicarious がゲームのルールを変更した場合 (新しいレンガを追加したり、スラブを上げたりした場合)、システムは補償されます。これは、Breakout 自体についての共通の理解をある程度捉えているようです。

明らかに、この種の AI を設計する際にはトレードオフが存在します。おそらく、システムにどのような事前設定されたロジックを正確に取り込むかを判断するための慎重な設計と計画は、はるかに困難な仕事です。新しいシステムを設計する場合、速度と精度の適切なバランスをとることが難しい場合があります。

ジョージ氏は、「モデルが素早く学習できるように、モデルに入力する」最小のデータセットを探していると語った。必要な仮定が少ないほど、機械はより効率的に意思決定を行うことができます。

ディープラーニング モデルに猫を認識するようトレーニングしたら、これまで見たことのないロシアン ブルーの猫を見せても、すぐに猫だと判断します。何百万枚もの写真を処理した後、猫が猫である理由だけでなく、猫を識別する最も速い方法も知っています。

Vicarious の AI は、時間の経過とともに積極的に論理的な推論を行うため、比較すると遅くなります。

Vicarious の AI がうまく機能すると、はるかに少ないデータから学習できるようになります。ジョージのチームは、歪んだフォント画像を認識することで、ニューラルネットワーク上の「私はロボットではありません」という障壁を突破する AI を作成した。

ブレイクアウトシステムと同様に、文字を認識するのに役立つ知識など、いくつかの機能が AI に事前に装備されていました。ブートストラッピングを導入したことで、AI は 260 枚の画像でトレーニングするだけで、90.4 パーセントの精度で CAPTCHA を解読できるようになりました。対照的に、ニューラル ネットワークが CAPTCHA を解読できるようになるまでに、230 万枚を超える画像でトレーニングする必要がありました。

他の人たちは、さまざまな方法でニューラル ネットワークに常識的な構造を構築しています。たとえば、DeepMind の 2 人の研究者は最近、ディープラーニングと従来の技術を組み合わせたハイブリッド システムを開発しました。彼らはこのシステムを帰納的論理プログラミングと呼びました。目標は、数学的推論を実行できるものを作成することです。

彼らは、1 から数えていき、3 で割り切れる数字は「フィズ」、5 で割り切れる数字は「バズ」と言う子供のゲーム「フィズ・バズ」を使ってニューラル ネットワークをトレーニングしました。通常のニューラル ネットワークは、以前に見たことのある数字しか処理できません。 100 分間トレーニングすると、99 が「fizz」で 100 が「buzz」であると認識します。

しかし、105 をどう処理すればいいのか分からない。対照的に、ディープマインドのハイブリッド ディープマインド システムは、このルールを理解しているようで、100 を超える数字を問題なく判別できた。「ディープラーニング ネットワークだけではできない方法でシステムを訓練して推論させることができます」と、このハイブリッド システムを開発したディープマインドのプログラマーの 1 人、エドワード グレフェンステッテ氏は述べた。

ディープラーニングの先駆者であり、現在フェイスブックの人工知能研究部門の責任者を務めるヤン・ルカン氏は、この分野に向けられた多くの批判に同意している。彼は、それがあまりにも多くのトレーニングデータを必要とし、推論できず、常識に欠けていることを認めた。

「基本的に、この4年間、これを何度も繰り返してきたんだ」と彼は私に思い出させた。しかし彼は、正しい徹底的な研究を行えば答えが得られると固く信じている。彼はチョムスキーの人間の知能に関する見解に同意しない。彼は、人間の脳は、組み込まれたルールではなく相互作用を通じて推論能力を発達させると信じていました。

「動物や幼児がどのように学習するかを考えてみると、人生の最初の数分、数時間、数日間で、多くのことが非常に速く学習されるため、生来備わっているように見える」と彼は指摘した。 「しかし、実際には、ロボットは非常に速く学習できるため、ハードコードする必要はありません。」

この観点から見ると、赤ちゃんは世界の物理法則について学ぶために、単に頭を動かし、入ってくる画像に関するデータを処理し、被写界深度が何であるかを結論付けます。

それでも、ルカン氏は、ディープラーニングの低迷を打開するためにどのような手段が役立つかは明らかではないと認めている。それは「敵対的」ニューラル ネットワークである可能性があります。これは、1 つのニューラル ネットワークが偽のデータで別のニューラル ネットワークを騙し、2 番目のニューラル ネットワークに画像、音声、およびその他の入力の非常に微妙な内部表現を開発させるという比較的新しい手法です。

その利点は、「データ不足」の問題がないことです。ニューラル ネットワークは互いから学習するため、ニューラル ネットワークをトレーニングするために何百万ものデータを収集する必要はありません。 (著者注:同様の手法は、人々が実際には言っていないことやしていないことを言ったり行ったりしているように見せかける、非常に不快な「ディープフェイク」動画の作成にも使用されています。)

私はニューヨークにあるフェイスブックの人工知能研究所のオフィスでヤン・リクン氏に会った。マーク・ザッカーバーグは2013年に彼を採用し、研究室の目標はフェイスブックの製品にちょっとした改良を加えることではなく、人工知能の限界を押し広げることであると約束した。学術研究室と同様に、LeCun 氏と彼の研究者は、他の人が検討できるように研究結果を公開することができます。

今でも母国語であるフランス語のアクセントが残っているルカン氏は、ホワイトボードの前に立って、ディープラーニングの進歩を推進できる理論を精力的に描き出しました。反対側の壁には、スタンリー・キューブリック監督の『2001年宇宙の旅』の美しい絵画が飾られています。この作品には、深宇宙に浮かぶ主役の宇宙船と、地球を周回する車輪付きの宇宙船が描かれています。私がそれらを指摘すると、ルカンは「ああ、そうだ」と言った。それらはキューブリックが映画のために制作したアートワークの復刻版だった。

周囲のイメージを参考にしてヒューマノイド AI について議論するのは奇妙なほど不安だ。なぜなら、『2001年宇宙の旅』のヒューマノイド AI である HAL 9000 は効率的な殺人者だったからだ。

これは、AI 開発の方向性に関する議論を超えた、より深い哲学的な疑問を指し示しています。よりスマートな AI を作ることは良い考えなのでしょうか? Vicarious のシステムは CAPTCHA を解読しましたが、CAPTCHA の目的はロボットが人間の真似をするのを防ぐことです。

AI研究者の中には、人間と会話し、人間の心理を理解する能力が、不正なAIを極めて危険なものにする可能性があると懸念する人もいる。オックスフォード大学のニック・ボストロム氏は「超知能」の誕生について警鐘を鳴らした。スーパーインテリジェンスとは、自己改善し、急速に人間を超え、あらゆる面で人間を上回る能力を持つ人工知能です。 (彼が考える支配力を高める方法の一つは、人々を操作することだ。そして「心の理論」を持つことは、そのために非常に役立つだろう。)

イーロン・マスク氏はその危険性を強く認識しており、安全な人工知能の実現を目指す組織であるOpenAIに資金提供した。

それはエツィオーニ氏を夜も眠れなくさせるような未来ではない。彼はAIが悪意のある超知能になることを心配していない。 「我々は世界を征服する何かが心配だ」と彼は嘲笑する。「それは自分自身でチェスのもう一ゲームをすることさえ決められない。」 AI がこれらの意図をどのように開発するのか、またそれがソフトウェアでどのように表現されるのかは明らかではありません。ディープラーニングはチェスに勝つことができますが、チェスをプレイしたいという生来の欲求はありません。

彼が心配しているのは、現在の人工知能が非常に無能だということだ。したがって、HAL に自己保存できる知能を持たせることはできないかもしれないが、「致死性兵器と無能な AI は簡単に人を殺すことができる」と彼は言う。エツィオーニ氏が AI に常識を植え付けようと決意している理由の 1 つはそこにある。最終的には、これによって AI がより安全になるだろうと彼は主張する。人間を大量に虐殺すべきではないというのも常識です。 (アレン研究所の使命の一部は、AI をより合理的にし、より安全なものにすることです。)

エツィオーニ氏は、人工知能のディストピアSFビジョンは短期的な経済的転換よりもリスクが少ないと指摘している。 AI が常識をより良く理解できるようになれば、運転手、出納係、管理者、あらゆる種類のアナリスト、さらにはジャーナリストなど、パターンマッチングだけのディープラーニングでは現在達成するのが難しい仕事をより迅速に実行できるようになります。

しかし、真に合理的な AI は、経済の領域を超えて混乱を引き起こす可能性があります。政治的な偽情報を拡散するボットが常識を働かせ、Twitter、Facebook、または電話で大勢の人間と区別がつかないようだったらどうなるか想像してみてください。

マーカス氏は、AIに推論能力を与えることには危険があることに同意している。しかし、そのメリットは大きいと彼は言う。人間のように推論し、認識することができ、コンピューターの速度で動作する人工知能は、人間には不可能な速度で因果関係を解明し、科学に革命を起こす可能性があります。

ロボットは膨大な知識を保有しているだけでなく、人間と同じように精神的な実験を行ったり、「if-then」の連鎖をたどったり、反事実的なことを考えたりすることができます。 「最終的には、例えば精神疾患を治せるようになるかもしれない」とマーカス氏は付け加えた。 「人工知能は、脳の構築や脳の正常な機能や非機能に関与するタンパク質の複雑な生物学的カスケードを理解できるかもしれない。」

『2001年宇宙の旅』の写真の下に座り、楊立坤自身が「異端」の見解を述べた。もちろん、AI をより人間らしくすることは、私たちの世界を助けることにつながります。しかし、人間の考え方を直接コピーするとどうなるでしょうか?これがうまくいくかどうかは誰にも分かりません。人間のように考える人々はすでに存在します。おそらく、インテリジェントな機械の価値は、それが人間とは根本的に異なるということにあるのでしょう。

「もし彼らが我々にはない能力を持っていたら、もっと役に立つだろう」と彼は私に言った。 「そうすると、彼らは知能を増幅する存在になる。だから、ある意味では、彼らには人間以外の知能を持たせたい…人間よりも理性的であってほしいと思う。」言い換えれば、AI を少し人工的にする価値はあるかもしれない。

オリジナルリンク: https://www.wired.com/story/how-to-teach-artificial-intelligence-common-sense/

編集チーム制作

<<:  Voicebot.ai: 2018 音声アシスタント ユーザー使用状況レポート

>>:  マイクロソフトは、度重なる失敗にもかかわらず、なぜいまだに携帯電話事業に資金を投入することに熱心なのでしょうか?

推薦する

苦頂茶は口臭を治すことができますか?

口臭に関しては、多くの人が実際に非常に嫌悪感を抱いています。なぜなら、口臭は人々に非常に悪い印象を与...

ヘーゼルナッツチョコレート

ヘーゼルナッツチョコレートは実際にはチョコレートの一種ではなく、中のヘーゼルナッツがチョコレートで包...

ベイベイ!これはあなたが今まで見た中で最もかわいい名前を持つ恐竜です...

1993年、河南省西夏県陽城郷昭応村の山腹に、轟く雷鳴とともに豆ほどの大きさの雨粒が降り注いだ。雨...

ソバの効能

そばも非常に一般的な食べ物です。この種の食べ物を食べる良い方法がいくつかあります。しかし、そばを選ぶ...

陳村粉末の栄養価

多くの友人は陳村ビーフンについて聞いたことがあるが、本物の陳村ビーフンを食べたことがない。これは陳村...

骨スープの栄養上の利点

私たちの日常の食生活において、骨スープは非常に一般的なスープです。骨スープは体内のカルシウムを補給す...

医療用 AI テクノロジーは注目されていますが、そのビジネス モデルはどこまで続くのでしょうか?

今は刺激的な時代です。ゲノミクスや医療画像などの医療分野から膨大な量の情報がもたらされるにつれ、人工...

新しい研究で判明:ダークチョコレートを多く食べると糖尿病のリスクが減る?真実は…

チョコレートは美味しくて人々に愛されていますが、高カロリーの食べ物なので、「チョコレートを食べると太...

クエストモバイル:2024年7月現在、ネットワーク全体の新興中流階級ユーザー数は2億5,700万人に達し、前年比4.8%増加した。

QuestMobileのデータによると、2024年7月時点で、ネットワーク全体の新興中流階級ユーザ...

フグ:私たちは毒素を生成するのではなく、単に毒素の「運搬者」であるだけだ

フグに関しては、グルメな人たちは愛憎入り混じった感情を抱いているに違いありません。美味しいですが、毒...

ハイアールエアコンの事業は2020年も改善を続け、欠点を補うには2倍の成長のみ

2020年の価格競争と疫病の二重の苦難を経験した後、ハイアールエアコンは二重成長を達成した唯一のブラ...

夢を見ずに眠るのは退屈ですか?夢を多く見るのと、夢を少なく見るのとでは、どちらの睡眠の質が良いのでしょうか?

よく聞かれるのですがああ、私は夜夢を見すぎます。身体に何か異常がありますか?しかし誰かが尋ねた私は夢...

エンドウ豆で煮込んだ豚足

豚足とエンドウ豆の煮込みは、家庭のレシピによく含まれているため、ほとんどの人にとって非常に馴染み深い...

WeChatが収益化の深海に突入:今年の焦点は広告になるかもしれない

コミュニケーションとソーシャルインタラクションを主な目的とするツールとして、WeChat の基本機能...

春に熱を下げるには、4つの食品を摂取しましょう。牛乳は熱と毒素を解消し、肝火を減らす効果があります。

春は気候が暖かく、花が咲き、賑やかな季節です。しかし、気候が乾燥し、喉が痛くなりやすいです。漢方医学...