AlphaGoの背後にあるディープラーニング技術についての簡単な説明

AlphaGoの背後にあるディープラーニング技術についての簡単な説明

はじめに: Alfa Go に関する解説記事は数多くありますが、実際に開発チームとコミュニケーションが取れる記事は多くありません。この記事の内容に注目し、議論してくれたDeepMindとAlfa Go開発チームの友人たちに感謝します。以前のバージョンの記事で使用した言葉遣いが正確さに欠けていると指摘されたので、ここでいくつか調整を加えました。前回の記事で述べた「全体の状況」は、複数の時点にわたるゲーム全体を指し、特定の時点でのチェス盤全体と間違えられやすいため、後ですべて「チェスゲーム全体」に変更します。また、チェスゲーム全体の評価に関しては、オフラインデータを通じて学習した評価ネットワークに加え、現状に基づいてリアルタイムに計算された異なる戦略の違いを評価することも可能となっている(この技術はRolloutsと呼ばれる)。計算結果をキャッシュすることで、チェスゲーム全体の影響をローカルに考慮することもできます。コメントをくださった DeepMind の友人たちに改めて感謝いたします。

今日、人類が AlphaGo に 3 連続で負けた後、(アベンジャーズにウルトロンが登場したときのパニックを想像するのではなく)AlphaGo に関係するディープラーニング技術を誰もがより深く理解するのに良い時期です。 Alpha Go のディープラーニング技術について説明する前に、まずはよくある誤解を解くために、いくつかの簡単な事実をまとめておきたいと思います。

●今回AlphaGoが使用した技術はDeep Blueの技術とは根本的に異なります。もはや、人間を打ち負かすために力ずくの問題解決は行いません。

●はい、AlphaGoはディープラーニングを通じてより抽象的な概念を理解できるようになりましたが、コンピューターにはまだ自己認識と思考がありません。

●AlphaGo は囲碁の美学や戦略を理解しているわけではなく、単に動きを決定する 2 つの美しく強力な関数を見つけただけです。

ニューラルネットワークとは何ですか?

実際、ニューラル ネットワークは非常に古い技術です。 1943 年、ウォーレン・マカロックとウォルター・ピッツが初めてニューロンの数学的モデルを提案しました。その後 1958 年に、心理学者ローゼンブラットは、以前のニューロンの構造にトレーニングとパラメータの変更 (学習とも呼ばれる) のメカニズムを追加したパーセプトロンの概念を提唱しました。この時点で、ニューラルネットワークの基本的な理論的枠組みが完成しました。ニューラル ネットワーク内のニューロンは、実際にはフロント エンドからさまざまな信号を収集し (神経の樹状突起に似ています)、各信号の重みを合計し、活性化関数を通じて新しい信号に変換して送信します (ニューロンの軸索に似ています)。

ニューラルネットワークでは、ニューロンが直列に接続されます。これらは、入力層(入力変数を表す)、出力層(予測される変数を表す)に分けられ、中間の隠れ層はニューロンの複雑さを増すために使用され、より複雑な関数変換構造をシミュレートできるようになります。各ニューロンは互いに接続されており、それぞれに信号の重み付けを処理する重みがあります。

従来のニューラル ネットワーク テクノロジーは、重みをランダムに割り当て、その後、再帰計算を使用して、入力トレーニング データに基づいて重みを 1 つずつ変更し、全体的なエラー率を最小限に抑えます。当時、バック伝導ネットワークや教師なし学習などの技術の発達により、ニューラル ネットワークが普及しましたが、人間はすぐに計算能力の不足という困難に直面しました。なぜなら、隠れ層が 1 つしかない場合、ほとんどの場合、ニューラル ネットワークの分類予測効果は従来の統計ロジスティック回帰よりもそれほど悪くはありませんが、より多くの計算能力を消費するからです。ただし、隠れ層ニューロンの増加や隠れ層の増加に伴い、計算に必要な重みの数は劇的に増加します。そのため、1980 年代後半までに、ニューラル ネットワークに関する研究全体が寒い冬を迎えました。洗濯機でその小さなパワーを体験できるのはほんの一握りかもしれません(現在、多くの洗濯機はニューラル ネットワークを使用して、投入された衣類に基づいて水の量と稼働時間を評価しています)。正直に言うと、ニューラル ネットワークはまったく強力だとは考えられていませんでした。

この寒い冬は 2006 年まで続きましたが、ヒントンとルカンのチームが「ディープ ビリーフ ネットの高速学習アルゴリズム」という論文を発表し、ようやく回復の希望が生まれました。彼らの見解は、ニューラル ネットワーク内のニューロンの重みがランダムに割り当てられなければ、ニューラル ネットワークの計算時間を大幅に短縮できるというものでした。彼らが提案した方法は、ニューラル ネットワークの教師なし学習を使用して、ニューラル ネットワークの初期重みを割り当てるというものでした。当時、どのジャーナルも基本的に「ニューラルネットワーク」という言葉を含む論文をゴミとみなして掲載しなかったため、彼らはそれを打破するために「ディープラーニング」という新しい言葉を提案しました。ヒントン氏の努力に加え、ムーアの法則の影響により、より高速な計算能力を利用できるようになります。ヒントン氏はその後、2010 年にこの手法を GPU コンピューティングと組み合わせて使用​​し、音声認識の計算速度を 70 倍以上に向上させました。ディープラーニングの新しい波は、ディープラーニングが初めて ImageNet コンテストに参加した 2012 年に到来しました (トレーニング グループとして 120 万枚の写真、テスト グループとして 50,000 枚の写真があり、1,000 のカテゴリが必要でした)。過去数年間わずかにしか変化していなかったエラー率は、26% から 15% に減少しました。同年にマイクロソフト チームが発表した論文では、ディープラーニングによって ImageNet 2012 データセットのエラー率が 4.94% にまで低減したことが示され、これは人間のエラー率 5.1% よりも低い数値となっています。昨年(2015年)、マイクロソフトは再びImageNet 2015チャンピオンシップを獲得し、エラー率は3.57%という超低レベルにまで低下しました。 Microsoft は 152 層のディープラーニング ネットワークを使用しました (この数字を見たときは死ぬほど怖かったです)...

畳み込みニューラルネットワーク

画像認識に関しては、2 次元のニューラル ネットワーク構造を扱います。 100×100 ピクセルの画像の場合、入力データは実際には 10,000 ピクセルのベクトルです (これはグレースケール画像ですが、カラー画像の場合は 30,000 ピクセルになります)。隠れ層のニューロンが入力層のニューロンと同等である場合、重みの 10 の 8 乗を計算する必要があります。この数字は考えただけでも頭が痛くなるほどで​​、並列コンピューティングや分散コンピューティングでも達成するのはおそらく難しいでしょう。したがって、畳み込みニューラル ネットワークは、次の 2 つの非常に重要な点を提唱しています。

1. ローカル受容領域: 人間の視点から見ると、視覚が画像の隅に焦点を合わせている場合、それより遠くのピクセルは視覚に影響を与えないはずです。したがって、ローカル受容領域の概念は、ピクセルが隣接するピクセルに接続される必要があるというものです。この方法では、計算する必要のあるニューラル接続の数を大幅に削減できます。たとえば、ニューロンは隣接する 10*10 ピクセルに接続する必要があるため、計算は 10 の 8 乗から 100*100*(10*10) = 10 の 6 乗に減らすことができます。

2. 重量共有: しかし、10 の 6 乗はまだ大きいため、今回導入する 2 番目の概念は重量共有です。人間の視覚は画像上のピクセルの絶対的な位置を認識しないため、画像が移動したり位置が変更されたりしても、画像を理解することができます。これは、ローカル領域からトレーニングした重み (10 * 10 畳み込みカーネルなど) が写真のすべての位置に適用できることを意味します。つまり、この 10*10 の範囲で学習した特徴をフィルターに変換し、画像範囲全体に適用することができます。重み共有により、10*10 畳み込みカーネルは同じ重みを共有することになります。畳み込みカーネルは特徴として理解できるため、ニューラル ネットワーク内で複数の畳み込みカーネルを設計して、より多くの特徴を抽出できます。下の図は、5×5 の写真から特徴を抽出する 3×3 畳み込みカーネルの概略図です。

畳み込み層が特徴を見つけた後、それを入力変数として使用して、一般的なニューラル ネットワークの分類モデルをトレーニングできます。しかし、ネットワーク構造がどんどん複雑になると、サンプル数が極端に多くないと、オーバーフィッティング(ニューラルネットワークがルールを見つける代わりにモデリングデータの構造を記憶してしまう)の問題が起こりやすくなります。そのため、後にプーリングまたはサブサンプリングの概念を導入しました。これは、畳み込みカーネル内の小さな n * n 領域を要約して、この領域の最も重要な特徴を強調し、過剰学習の問題を回避することです。

そのため、一般的な画像認識技術(ImageNet など)では、多段畳み込み層 + プーリング層の組み合わせを使用し、最終的に一般的なニューラル ネットワーク アーキテクチャに接続して分類予測を行います。下の図は画像認識の例です。このうち、C2、C4、C6 は畳み込み層であり、S3 と S5 はプーリング層です。畳み込みニューラル ネットワークは、2 次元行列を通じて抽象的な問題を解決するニューラル ネットワーク テクノロジを構築します。画像認識では、従来のようにニューラル ネットワークが学習する画像の特徴を手動で識別する必要がなくなりました。代わりに、畳み込みネットワーク構造を通じて、データ自体から特徴を識別することができます。畳み込み層の数が多いほど、識別できる特徴のレベルは高くなり、抽象度も高くなります。したがって、写真から猫や犬を認識するようにニューラル ネットワークをトレーニングする場合、猫や犬の特徴的な注釈を自分で見つける必要がなくなります。代わりに、ニューラル ネットワークに大量の猫や犬の写真を渡すだけで、ニューラル ネットワークが自動的に猫や犬の抽象的な定義を見つけます。

畳み込みニューラルネットワーク画像認識と囲碁の類似点に気づきましたか?はい、囲碁は 19×19 の正方形の配列で、囲碁のルールはチェスやチェッカーほど明確ではなく、駒の配置を判断するには非常に高度な直感が必要です。このとき、プログラマーが囲碁のルールをコンピューターに自分で入力する必要がないため、ディープラーニングは非常に効果的な役割を果たすことができます。大量のチェス記録から対応するロジックと抽象概念を見つけることができます。

囲碁はなぜ難しいのでしょうか?

なぜディープ・ブルーはチェスでは人間に勝てるのにもかかわらず、囲碁では勝てないのでしょうか?これは、Deep Blue が強力な計算能力を使用して、将来の状況のツリー構造を構築し、将来の勝ち負けの可能性を推測するためです。しかし、チェスや中国将棋の場合、分岐係数は約 40 であることを知っておく必要があります。つまり、次の 20 手の動きを予測するには、40 の 20 乗を計算する必要があります (これはどのくらい大きいでしょうか。1GHz のプロセッサを使用しても、計算に 3486528500050735 年かかります。これはまだ比較的単純なチェス ゲームであることに注意してください)。そこで、彼はMinMax検索アルゴリズムやアルファベータ剪定法などのアルゴリズムを使用して、計算可能な範囲を狭めました。基本的には上位層の勝率を基準に、勝てる可能性のある部分は多めに計算し、負ける部分は少なめに計算し、勝敗に関わらず計算は行いません。最善の戦略を見つけるために、力ずくの問題解決法が使用されます。しかし残念なことに、囲碁の分岐係数は 250 です。19 x 19 の囲碁配列では、駒を置く場所が 361 個あるため、囲碁ゲーム全体の順列と組み合わせの合計数は 10 の 171 乗にもなります。これは宇宙の原子の数よりも多いという報告が多数あります。これは、宇宙の原子の数は 10 の 75 乗であると述べた古代の研究に基づいています。しかし、私はこれを見てただ笑った。これも宇宙の大きさを過小評価していると思います。

AlphaGoの主な仕組み

アーキテクチャの観点から見ると、AlphaGo には 2 つの脳、つまりポリシー ネットワークと評価ネットワークという、ほぼ同じニューラル ネットワーク構造を持つ 2 つの独立したネットワークがあると言えます。これら 2 つのネットワークは、基本的に 5*5 の畳み込みカーネル サイズを持つ 13 層の畳み込みニューラル ネットワークで構成されているため、行列の入力値をチェス盤上の各座標点の配置状態に置き換える点を除けば、固定長および固定幅のピクセルにアクセスする画像認識ニューラル ネットワークと基本的に同じです。

最初の頭脳である「戦略ネットワーク」は、基本的には、対戦相手の最も可能性の高い移動位置を決定するために使用される単純な教師あり学習アルゴリズムです。彼がやったのは、世界中のプロのチェス選手のチェスの記録を大量に入力して、対戦相手の動きの最も可能性の高い位置を予測することだった。このネットワークでは、「勝つ」ことについてまったく考える必要はなく、相手の動きを予測できればよいだけです。現在、AlphaGo は対戦相手の指し手を予測する精度が 57% です (これは Nature の記事が発表された時点でのデータであり、現在はおそらくさらに高くなっています)。 AlphaGo の弱点は戦略ネットワークにあると思われるかもしれません。一方で、予測精度は高くありません。一方、これまで見たことのないゲームをプレイした場合、勝つチャンスはあるでしょうか?残念ながら、そうではありません。AlphaGo のポリシー ネットワークは 2 つのレベルで強化されているからです。最初のレベルでは、強化学習 (RL) ポリシー ネットワークと呼ばれるテクノロジが使用されます。まずサンプルの一部を使用してポリシー ネットワークの基本バージョンをトレーニングし、完全なサンプルを使用してポリシー ネットワークの高度なバージョンをトレーニングします。その後、2 つのネットワークが互いに対戦します。ポリシー ネットワークの高度なバージョンは、基本バージョンの前に立つ「マスター」に相当します。したがって、基本ネットワークは、マスターの可能な動きの位置データをすぐに把握し、強化バージョンを生成することができます。この強化バージョンは、オリジナルの高度なバージョンの「マスター」になります。この修正サイクルを繰り返すことで、相手(マスター)の動きの予測を継続的に改善することができます。 2 番目のレベルでは、現在のポリシー ネットワークは、19 x 19 グリッド内で最も可能性の高い位置を見つける必要がなくなります。改良されたポリシー ネットワークでは、最初に畳み込みカーネルを通じて一部の領域を計算から除外し、残りの領域に基づいて最も可能性の高い位置を見つけることができます。これにより、AlphaGo のポリシー ネットワークのパワーが低下する可能性がありますが、このメカニズムにより、AlphaGo の計算速度が 1,000 倍以上向上します。 Alpha Go は全体的な状況に基づいて相手の可能性のある手を推測しているため、コンピューターの動きを妨害するために意図的にいくつかの手を動かすなどの人間のトリックは実際には意味がありません。

第二の脳は評価ネットワークです。評価ネットワークでは、短期的な包囲と征服ではなく、現在の状況(これを私はチェスゲーム全体と呼んでいます)における各移動位置の「最終的な」勝率に重点が置かれています。言い換えれば、戦略ネットワークは分類問題(相手はどこに賭けるか)であり、評価ネットワークは評価問題(ここに賭けた場合に勝つ可能性はどれくらいか)です。評価ネットワークは、正確な解を計算するために膨大な計算能力を消費する可能性があるため、正確な解を評価するメカニズムではありません。したがって、これは近似解ネットワークにすぎず、畳み込みニューラルネットワークを通じて畳み込みカーネル範囲の平均勝率を計算します(このアプローチの目的は、主に評価関数を滑らかにして、過学習の問題を回避することです)。最終的な答えは、最終的なモンテカルロ探索木に委ねられます。もちろん、ここで言う勝率は下方予測のステップ数に関係することになります。下方予測のステップが増えるほど、計算は複雑になります。 AlphaGo は現在、拡張する必要がある予測ステップの数を判断する機能を備えています。しかし、過去のサンプルが勝率を正しく反映し、2 人のプレイヤーの強さに関する事前の判断 (ある場所で勝つことは、そこで勝つべきではなく、この人のほうが強いからかもしれない) に影響されないことをどのように保証できるでしょうか。彼らは、2台のAlphaGoマシンを互いに対戦させることでこの問題を解決しました。 2 台の AlphaGo マシンの強さは同等とみなせるため、最終的な勝敗は 2 人の元のプレイヤーの強さとは関係なく、次の動きの位置に関係します。したがって、人間のチェスのゲームは双方の強さに左右されるため、評価ネットワークは世界で知られているチェスの記録を通じてトレーニングされるわけではありません。 2対1方式でヨーロッパのチェス王と対戦した時は、使用したトレーニンググループのサンプルは3000万のチェス記録だけだったが、イ・セドルと対戦した時はその数が1億にまで増えた。人間はチェスを何時間もプレイしますが、AlphaGo は 1 秒間に複数のゲームを完了できるため、この方法では正しい評価サンプルを迅速に蓄積できます。したがって、機械が囲碁を打つ際の最大の難しさとして前述した評価メカニズムは、畳み込みニューラルネットワークを通じて解決されます。

AlphaGo テクノロジーの最終リンクはモンテカルロ探索木です。以前 Deep Blue が使用していた検索 (MinMax 検索アルゴリズムと Alpha-Beta プルーニング法を使用。ここでは詳しく説明しません) と比較すると、無限の計算能力がないため (順列と組み合わせが有限の場合、モンテ カルロ検索ツリーは確かにすべての組み合わせの包括的な評価を実行できる可能性がありますが、これは Go のコンテキストでは不可能です。これが実行できたとしても、計算時間が大幅に増加する可能性があります)、古い方法を適用することは不可能です。しかし、これまでの戦略ネットワークと評価ネットワークでは、AlphaGo はすでに次の手の可能性 (対戦相手も含む) を制御可能な範囲に絞り込むことができています。次に、モンテカルロ探索ツリーを使用して、限られた組み合わせから最適なソリューションをすばやく計算できます。一般的に言えば、モンテカルロ探索ツリーは次の 4 つのステップで構成されます。

1. 選択: まず、現在の状況に基づいて、対戦相手の可能性のある移動モードをいくつか選択します。

2. 拡張: 対戦相手の動きに基づいて、勝つ可能性が最も高い動きのパターンに拡張します (これを 1 次モンテカルロ ツリーと呼びます)。したがって、AlphaGo の検索ツリーでは、すべての組み合わせが実際に拡張されるわけではありません。

3. 評価: 最善のアクションを評価する方法 (AlphaGo はどこに移動すべきか)。 1 つの方法は、ゲームを評価ネットワークに渡して勝利の可能性を評価することです。 2 番目の方法は、より深いモンテカルロ ツリー (さらにいくつかの可能な結果を​​予測する) を作成することです。これら 2 つの方法の結果はまったく異なる可能性があります。 AlphaGo は混合係数を使用して 2 つの評価結果を統合します。現在Natureに掲載されている混合係数は50%-50%です(ただし、実際にはそうではないと思います)

4. 後方伝導: 最適なアクション位置を決定した後、この位置をすぐに使用して、ポリシー ネットワークと対応する検索評価を通じて、対戦相手の可能な次のステップを評価します。つまり、AlphaGo の最も恐ろしい点は、イ・セドルがどこに手を打つか考えていたとき、AlphaGo がすでにその可能な手を推測していただけでなく、彼が考えていた時間を使って次の手の計算を続けていたことです。

AlphaGoチームの実際のテストによると、脳やモンテカルロ探索木技術だけを使えば、アマチュアレベルに達することができる(ヨーロッパのチェス王ファン・モの強さのレベルは2500~2600程度、イ・セドルは3500以上)。しかし、これらのテクノロジーを統合すると、さらに強力になります。しかし、ネイチャーの論文が発表された時点では、彼の推定実力は3~4段程度に過ぎなかった(イ・セドルは9段)。しかし、前述の通り、彼は技術の向上により戦略ネットワークを強化し、2台のAlphaGoマシンを通じて評価ネットワークを最適化したため、短期間で強くなることができました。さらに、コンピュータには感情がなく、プレッシャーを恐れず、対戦相手の実力で相手を過小評価することもありません(AlphaGoの戦略ネットワークは常に強い方だけを予測してきました)。そのため、たとえ人間の方が強い力を持っていたとしても、勝ち負けのプレッシャーに耐えられず、最高のパフォーマンスを発揮できない可能性があります。

イ・セドルに優勝のチャンスはあるでしょうか?

多くのコメントでは、AlphaGo に関する誤った推測が多いように感じます。 1つ目は、AlphaGo に「ゲーム全体」を評価する能力があるかどうかです。 AlphaGo は全体としてこの能力を持っていると言わざるを得ません。これは主に評価ネットワークの計算結果から得られますが (最終的な勝率を計算するため)、得られるのはプールされたエリアの平滑化された平均勝率です。 AlphaGo の戦略ネットワークは主に、対戦相手の次の動きを評価するために使用されます。モンテカルロ探索木については、評価ネットワーク(オフライントレーニングの結果)のパラメータと、現在の状況に応じてリアルタイムで値の差を計算するRollouts技術を使用しているため、チェスゲーム全体を考慮したシミュレーション計算を行うことができます。しかし、人間は直感によって「チェスゲーム全体」をコントロールしており、それは依然としてコンピューターよりも強いはずです。さらに、現在の AlphaGo を使って畳み込みカーネルプーリングの結果 (主に平滑化と過学習の回避のため) を通じて平均勝率を評価すると、イ・セドルが AlphaGo を使って自分の行動を予測してその後の決定を行い、勝率評価にエラーを生じさせる罠を仕掛ける (プーリング範囲内での平均勝率は高いが、特定の局面での誤った動きによって「チェスゲーム全体」がひっくり返ってしまうため、勝率予測のエラーになる) ことができれば、人間が勝つ可能性があります (もちろん、ここでは可能性を提案しているだけですが、知ることは言うほど簡単ではなく、実際にそのようなアクションを実行する可能性は比較的低いです)。イ・セドルが今負けるのは、彼がアルファ碁の手を推測してきたからだ。しかし、実際はイ・セドルの次の手を推測して決断してきたのはアルファ碁なので、彼は考え方を変えて自分の偽の手でアルファ碁を騙せば、勝つ可能性がある。

弱いAIと強いAI

人類最後の砦ともいわれる囲碁でコンピューターが人間に勝利した今、人工知能が人間を支配する日が来ることを心配すべきなのだろうか。実は、人工知能の分類では弱い人工知能(Artificial Narrow Intelligence)と強い人工知能(Artificial General Intelligence)に分かれているので、あまり心配する必要はありません(実際、人間の知能よりも強力で、創造的革新や社会性などを備えた人工知能として、Artificial Super Intelligence(人工超知能)を提唱する人もいますが、これはSFっぽすぎて議論の範囲外だと思います)。最大の違いは、弱い人工知能には自己認識がなく、問題を理解する能力がなく、問題を解決するために考え、計画する能力がないことです。 AlphaGo が囲碁を理解していないのに、どうしてあんなに上手にプレイできるのか疑問に思うかもしれません。 AlphaGo は本質的にはディープラーニング ニューラル ネットワークであることに注意してください。ネットワークアーキテクチャと大量のサンプルを通じて、相手の動きを予測し(戦略ネットワーク)、勝率を計算し(評価ネットワーク)、限られた選択肢の中から最適な解を算出できるモンテカルロ探索木を発見したのです。言い換えれば、Go が何であるかを実際に理解するのではなく、これら 3 つの機能に基づいて最適なアクションを見つけます。したがって、AlphaGo と Microsoft の Cortana や iPhone の Siri との本質的な違いは、AlphaGo が囲碁をプレイすることに特化しており、追加の思考メカニズムを持っていないことです。また、AlphaGo は汎用ネットワークなので、World of Warcraft の遊び方を素早く学んだり、医学を勉強したりするのに使用できるという報告も見ました。これもまた大きな誤りです。上記の説明を読んだ方は、AlphaGo が囲碁をプレイするために設計された人工知能であることがわかるでしょう。他の問題を解決するために使用したい場合は、ニューラル構造とアルゴリズムを再設計する必要があります。したがって、イ・セドルがアルファ碁に負けたと言うよりも、数学に負けたと言った方が正確であり、直感は実際には合理的な数学的判断より劣っていることを証明している。人類は最後の砦を失い、囲碁の芸術は破壊されようとしていると考える人もいます... 実際のところ、あまり心配する必要はありません。人間はなぜ車から逃げられないのにそれほどパニックにならないのでしょうか?ランニングはスポーツとして依然として好調であり、オリンピックの金メダルを全てフェラーリが獲得したわけではないので、あまり神経質になる必要はありません。

では、強力な人工知能が登場する日は来るのでしょうか? 2013年、ボストロム氏は世界最先端の人工知能の専門家数百人を対象に調査を行い、強力な人工知能がいつ登場すると予想するかを尋ねた。調査結果に基づいて、彼は3つの答えを導き出しました。楽観的な推定(アンケートの10%の中央値)は2022年、通常の推定(アンケートの50%の中央値)は2040年、悲観的な推定(アンケートの90%の中央値)は2075年です。つまり、それはまだ遠い道のりです。しかし、弱い人工知能の開発がコスト削減され、商業化できる段階に達したとき、人工知能が地球を支配するかどうかを心配するのではなく、自分の仕事のスキルがコンピューターに置き換えられるかどうかを心配する方が現実的でしょう。
出典: 華源データ

<<:  アートと機械学習

>>:  テレビゲームは古典的なゲームのリメイクを再訪しているのでしょうか、それとも古いものを焼き直しているだけなのでしょうか?

推薦する

レッドソーセージの作り方

昔、中国人は赤いソーセージにあまり馴染みがなかった。なぜなら、赤いソーセージは一般的に外国人が食べる...

フレッシュミートパンの作り方

包子は私たちが日常生活でよく食べる食べ物の一種ですが、厳密に言えばおやつとして考えるべきものです。饅...

豚バラ肉の煮込み方

豚バラ肉の調理法は様々です。煮込んだり、炒めたり、フライパンで焼いたり、蒸したり、また餃子の具材とし...

CES2017 BMWの自動運転は、駐車や駐車を手助けする道路に優しいロボットで驚きを与える

最近、CES 2017で、Segway Roboticsは製品の開発者バージョンをリリースし、新しい...

血液と脾臓を補給するのに最も効果的なナッツの一種

ピーナッツの皮で血液を補給「麻の家、赤いテント、そしてその中にいる太った白人男性」というなぞなぞがあ...

塩コショウチキンウィングのレシピ

鶏の手羽の栄養価も非常に高く、血管を強化する成分が多く含まれています。高血圧の人は、定期的に鶏肉を食...

地球の暗く寒い最北端には、かつて恐竜の群れが繁栄していた。

恐竜という名前は、1842年にイギリスの古生物学者リチャード・オーウェンによって正式に提案されました...

タオバオは返金ポリシーを緩和しただけだが、プラットフォームから逃げ出す商人のペースは減速していない。

プラットフォーム、商人、消費者が協力して、わが国に50兆元を超える規模の巨大な電子商取引市場を築き上...

オミクロンの発表:これは世界中に大混乱を引き起こす最後のコロナウイルス変異株となるでしょうか?

執筆者: 朱恒恒編集者:王 哈哈レイアウト: 李雪偉2021年現在、世界的なCOVID-19の状況は...

ビジネスウィーク:滴滴出行はいかにしてUberを中国から追い出したのか?

滴滴出行の創業者兼CEOの程偉氏は最近、米国の雑誌「ビジネスウィーク」の独占インタビューに応じた。イ...

きゅうりを使った目玉焼きの作り方とその栄養価

きゅうり入り目玉焼きは、家庭料理としてよく知られています。作り方が簡単なだけでなく、栄養価も非常に高...

宇宙マイクロ波背景放射とは何ですか?それはビッグバンの後に作られたのでしょうか?

宇宙マイクロ波背景放射とは何ですか?宇宙マイクロ波背景放射の創造と発見宇宙マイクロ波背景放射(略して...

世界のトップ6ダイエット

世界保健機関は、人々が健康的な(健康食品)食習慣で人生に取り組むことを望んで、飽和脂肪の摂取をコント...

辛い鍋のレシピ

麻辣湯は四川省発祥で、私の国では昔から親しまれている地元の名物スナックです。それらは通りや路地で非常...