SF映画では、JARVISのようなAIシステムはほぼ全能であり、人間がさまざまな困難な問題を解決するのを助ける究極のアシスタントです。 その背後には、最先端の AI、つまり汎用人工知能 (AGI) と呼ばれる概念を追求する人々の努力があります。 AGI の概念は、多くのコンピューター科学者や AI 研究者が人間のような知能を持つコンピューター プログラムを構築する方法について考え始めた 20 世紀半ばにまで遡ります。特定のタスクの解決に重点を置く限定的な AI システムとは異なり、AGI はより広範な認知能力と推論能力を備えており、複数の分野でタスクを学習、適応、実行できます。 しかし、長い間、AI関連の研究は主に特定の問題やタスクの解決に焦点を当てており、AGIの実現は常により複雑で遠い目標と考えられてきました。 最近、シティバンクのデータサイエンス担当副社長であるヴァレンティーノ・ゾッカ博士が「私たちは AGI からどれだけ離れているのか?」と題した記事を執筆し、AGI やその他の重要な関連問題についての詳細な分析が提供されています。中心となる考え方は次のとおりです。 現在の限定的な AI と比較して、AGI は複数の認知領域で推論し、学習できる必要があります。しかし、AGI を実現するには、世界モデルの構築や因果推論の実行など、まだ多くの課題が残っています。 GPT-4 などの大規模言語モデルは、特定のタスクを解決し、因果関係を抽出することに優れていますが、抽象的な因果推論機能が欠けています。データから既知の因果パターンを抽出する傾向があり、新たな因果関係の洞察を生み出すことができません。 一部の研究者は、既存の大規模言語モデル(GPT-4など)がAGIへの一歩となる可能性があると考えていますが、世界モデルの作成、自己探索の有効化、因果推論の実行など、未解決の問題がまだ多く残っています。 大規模言語モデルは、データから因果関係を識別して抽出するのに優れていますが、新しい因果シナリオを独自に積極的に推論する能力がありません。彼らは観察から因果推論を行う能力を持っていますが、因果推論を行う能力はありません。 AI は真に「学習」することはできず、情報や経験を抽出することしかできないかもしれません。 AI は世界の包括的なモデルを形成するのではなく、要約を作成します。 AI は、スコアを能力の指標として使用することで、世界全体の本質を本当に理解することなく、世界の大まかな概要のみを見ているようなものです。 知能とは、一般的な問題に対する解決策を見つける抽象的な能力としてだけではなく、過去の経験から学んだ解決策を私たちの環境で発生する可能性のあるさまざまな状況に適用する具体的な能力として考えるべきです。 自分自身の現実を疑い、自己探求を行い、少なくとも因果推論を適用して世界の合理的なモデルを構築できるシステムを作成できた場合にのみ、真の AGI を実現できます。 Academic Headlines では、原文の主な意味を変えずに簡潔に翻訳しました。内容は以下のとおりです。 約20万年前、私たち人類は地球を歩き、思考と知識の領域を探求し始めました。人類の歴史のこの時期は、一連の発見と発明によって形作られてきました。これらの要因のいくつかは、私たちの歴史の流れだけでなく、微妙な形で私たちの生物学にも影響を与えてきました。たとえば、火の発見によって私たちの祖先は食物を調理する能力を獲得し、それによって熱が消化管だけでなく脳の進化にも影響するようになり、人類の知能の進歩が促進されました。 車輪の発明から蒸気機関の誕生まで、人類は産業革命をもたらしました。この変革期に、電気は今日私たちが知っている技術の進歩を大きく促進しました。印刷機は新しいアイデアや新しい文化の広範な普及を加速し、革新のペースをさらに促進しました。 しかし、人類の進歩は新たな物質的発見からだけではなく、新たなアイデアからも生まれます。ローマ帝国の崩壊から中世、そしてルネッサンスと啓蒙時代の復興まで、いわゆる西洋世界の歴史は、いわゆる全能の神々よりも人間の思想の中心性を強調しています。しかし、人類の知識が進歩するにつれて、人間は自分たちの取るに足らないことに気づき始めました。ソクラテス以来2000年の間に、人類は「自分たちは何も知らないことを知る」ようになり、地球はもはや宇宙の中心とはみなされなくなりました。宇宙自体は膨張しており、私たちはその中の一粒の塵に過ぎません。 現実の認識を変える しかし、20 世紀は、世界に対する私たちの認識を再構築するという点で最も議論された 100 年間であるかもしれません。 1931年、クルト・ゲーデルは不完全性定理を発表しました。 わずか 4 年後、アインシュタイン、ボリス・ポドルスキー、ネイサン・ローゼンは、「物理的現実の量子力学的記述は完全であると考えられるか?」と題する論文で「EPR パラドックス」を提唱しました。 「完全性」をテーマに。この論文はその後、量子物理学の実際的な妥当性を証明したニールス・ボーアによって反駁された。 ゲーデルの不完全性定理は、数学でさえ最終的にはすべてを証明することはできないこと、そして証明できない事実がある状況に常に直面することになることを示しています。一方、量子論では、アインシュタインの「神はサイコロを振らない」という有名な立場にもかかわらず、私たちの世界には決定論が欠けており、電子の速度や位置など、特定の出来事を予測することはできないとしています。基本的に、私たちの限界は、物理的な領域内での出来事を単に予測したり理解したりするだけにとどまりません。たとえ私たちが自らの意志で完全にルールを定めた数学的宇宙を構築しようと努力したとしても、この抽象的な宇宙については否定できない事実が依然として存在するでしょう。 しかし、数学的な記述に加えて、私たちの世界には、私たちが説明したり、十分に表現したり、理解したり、あるいは定義することさえできない現実を記述する哲学的な記述が満ち溢れています。 20 世紀初頭の「真実」という概念が不確実であったのと同様に、「芸術」、「美」、「人生」といった他の概念の定義にも根本的なコンセンサスが欠けています。しかし、これらは孤立したケースではありません。 「知性」や「意識」などの他の概念も、このジレンマに陥っています。 知能の定義 このギャップを埋めるために、レッグとハッターは 2017 年に「ユニバーサル インテリジェンス: 機械知能の定義」で知能の定義を提案しました。 「知能とは、さまざまな環境で目標を達成するエージェントの能力を測定するものです。」同様に、「問題解決と知能」では、ハンブリック、バーゴイン、アルトマンは、問題解決能力は知能の一側面や特徴ではなく、知能の本質であると主張しています。目標を達成することは問題を解決することに結びつくため、これら 2 つのステートメントには文字通りの類似点があります。 ゴットフレドソンは「52 名の署名による論説」で、複数の研究者の見解を次のように要約しています。「知能とは、推論、計画、問題解決、抽象的思考、複雑なアイデアの理解、素早い学習、経験からの学習などの能力を含む、非常に一般的な心理的能力です。」それは、書籍の知識、狭い学術的スキル、またはテスト受験テクニック以上のものです。むしろ、それは自分の周囲を理解するより広く深い能力を反映しています。物事を「把握」して「理解」したり、対処方法を「考え出す」能力。 この定義では、経験から学ぶ能力と自分の周囲を理解する能力という 2 つの重要な側面が導入され、知能の概念が単なる「問題解決能力」を超えたものになっています。言い換えれば、知能とは、一般的な問題に対する解決策を見つける抽象的な能力としてだけではなく、過去の経験から学んだ解決策を私たちの環境で起こりうるさまざまな状況に適用する具体的な能力として考えるべきです。 これは知性と学習の間の本質的なつながりを強調しています。スタニスラス・ドゥハーネは著書「私たちはどのように学ぶのか」の中で、学習とは「学習とは世界のモデルを形成することである」と定義しています。つまり、知能には周囲の状況を理解し、それを記述するための内部モデルを構築する能力も必要であるということです。したがって、たとえこの能力が包括的ではないとしても、知能には世界のモデルを作成する能力も必要です。 今日の機械はどれくらい賢いのでしょうか? 一般的な AGI と限定的な AI について議論する場合、それらの違いを強調することがよくあります。限定的 AI、つまり弱い AI は非常に一般的で成功しており、特定のタスクでは人間を上回るパフォーマンスを発揮することがよくあります。良い例は、2016年にAlphaGoが当時の囲碁世界チャンピオンであるイ・セドルを4対1で破ったときです。しかし、それでも2023年の出来事は、狭義のAIの限界のいくつかを浮き彫りにしました。囲碁の試合では、アマチュアプレイヤーのケリン・パーラインが、AIが気づかなかった戦術を使って勝利した。明らかに、AI には珍しい戦略を認識し、それに応じて調整する人間の能力が欠けています。 実際、最も基本的なレベルでは、経験の浅いデータ サイエンティストでも、AI が依存するすべての機械学習モデルは、たとえ最も単純なものであっても、バイアスと分散のバランスを取る必要があることを理解できます。つまり、AI は解決策を記憶するのではなく、データから学習して理解し一般化する必要があります。狭義の AI は、コンピューターの計算能力とメモリ容量を利用して、大量の観測データから比較的簡単に複雑なモデルを生成します。しかし、条件が少しでも変化すると、これらのモデルは適用できなくなることがよくあります。 それは、私たちが観察に基づいて地球上でのみ機能する重力理論を考案し、その後、月面上の物体がはるかに軽いことを発見するようなものです。重力理論の知識に基づいて数値ではなく変数を使用すると、正しい値を使用して各惑星または衛星の重力の強さを迅速に予測する方法がわかります。しかし、記号のない数式だけを使用すると、数式を書き直さずに他の天体に正しく一般化することはできません。 言い換えれば、 AI は真の意味で「学習」することはできず、情報や経験を抽象化することしかできない可能性があります。 AI は世界の包括的なモデルを形成するのではなく、要約を作成します。 私たちは本当に AGI を実現したのでしょうか? AGI の一般的な定義は、AI システムが複数の認知領域にわたって人間レベル以上の理解と推論ができるというものです。これは、特定のタスクに特化した AlphaGo などの現在の狭い AI システムとはまったく対照的です。 AGI とは、抽象的思考のさまざまな領域にわたる包括的かつ人間レベルの知能を備えた AI システムを指します。 前述したように、これには、経験と一致し、予測について正確な仮定を立てることができる世界のモデルを作成する能力が必要です。 ほとんどの AI 研究者や専門家は、真の AGI が実現するのはまだ数年先だと同意していますが、それがいつ実現するかについての予測はさまざまです。 「AGI の安全性に関する文献レビュー」という記事の中で、エヴェリット、リー、ハッターは次のように述べています。「多くの研究者に尋ねたところ、AGI は 2040 年から 2061 年の間に出現する可能性があると彼らは考えていましたが、各人の推測は大きく異なっていました。AGI は出現しないかもしれないと考える人もいれば、今後数年で出現するかもしれないと考える人もいました。」結論として、AGI がまだ実現していないことは確かです。 マイクロソフトは最近発表した論文「汎用人工知能の火花:GPT-4の初期実験」で次のように指摘した。 「GPT-4 は、以前の AI モデルよりも汎用的な知能を示す新しいクラスの LLM の一部であると主張します。これらのモデルの能力と影響の拡大について説明します。言語に精通していることに加えて、GPT-4 は特別なプロンプトを必要とせずに、数学、コーディング、視覚、医学、法律、心理学などの新しい困難なタスクを解決できることを示しています。さらに、これらすべてのタスクで、GPT-4 は人間のレベルに非常に近いパフォーマンスを発揮し、ChatGPT などの以前のモデルをはるかに上回ることがよくあります。GPT-4 のパワーを考えると、これを人工汎用知能 (AGI) システムに近い (ただしまだ不完全な) バージョンと見なすのが妥当であると考えています。」 何が問題ですか? Microsoft は OpenAI のパートナーです。 ニューヨーク・タイムズ紙の記事では、カーネギーメロン大学のマールテン・サップ教授の「これは、大企業が広報活動の目的で研究論文の形式を利用している一例だ」という発言が引用されている。 IEEE Spectrumとのインタビューで、研究者でありロボット起業家でもあるロドニー・ブルックス氏は、ChatGPTのようなシステムの機能を評価する際、私たちはしばしば「パフォーマンスを能力と勘違いしている」と強調した。 別の言い方をすれば、スコアを能力の指標として使うことで、AI は世界全体の本質を本当に理解することなく、世界の大まかな概要しか見ていないようなものです。 AIが直面している重要な問題は、トレーニング データです。ほとんどのモデルはテキストのみでトレーニングされており、話したり、聞いたり、嗅いだり、現実世界で生活したりする能力はありません。先ほど述べたように、この状況はプラトンの洞窟の寓話に少し似ています。その物語では、人々は洞窟の壁に映った影しか見ることができず、現実世界を直接体験することはできません。たとえ世界モデルを作成できたとしても、その世界は純粋にテキストの世界であり、構文的には正しいものの、意味的には包括的ではありません。この環境には、直接知覚から得られる「常識」が欠けているため、目立たないように見えます。 大規模言語モデルの主な制限は何ですか? ChatGPT や GPT-4 などの大規模言語モデル (LLM) が直面している最も物議を醸す課題の 1 つは、幻覚が発生しやすいことです。幻覚とは、こうしたモデルが時にはまったく意味をなさない偽の引用や事実を作り出すことです。幻覚は、出来事間の因果関係を理解していないために起こります。 「ChatGPT は優れた因果推論システムか? 包括的な評価」という記事で、著者らは「 ChatGPT は因果錯覚という深刻な問題を抱えており、実際に因果関係が存在するかどうかに関わらず、イベント間の因果関係を想定する傾向がある」と結論付けています。さらに彼らは、「ChatGPT は因果推論器としては優れていないが、因果説明器としては優れている」と述べ、説明時につながりを抽出する能力はあるものの、つながりが自然に存在する世界の既存モデルを構築することでこれらのつながりを推論することはできないことを再び強調しています。この投稿は ChatGPT に焦点を当てていますが、どの LLM にも拡張できます。 基本的に、 LLM はデータから因果関係を識別して抽出することには優れていますが、新しい因果シナリオについて独自に積極的に推論する能力が欠けていることがわかります。彼らは観察から因果推論を行う能力を持っていますが、因果推論を行う能力はありません。 この区別は限界を浮き彫りにします。システムは因果パターンを認識できますが、抽象的な因果推論を行う能力が欠けています。新たな因果関係の洞察は生成されず、データから因果関係を説明するだけです。 しかし、知能には経験からの学習が必要であり、学習は周囲の状況を理解するために使用できる世界のモデルを作成することにつながる場合、因果推論は学習の重要な要素であり、したがって知能であり、既存のモデルには欠けている側面です。これは、AGI に向けた私たちの取り組みにおける重要なステップの 1 つです。 結論は 20 世紀初頭に実証されたように、現実は私たちが日常の観察に基づいて形成する直感とはしばしば異なります。 20 世紀初頭の物理学者たちが、人間の直感に反する量子力学の理解に苦労したのと同じように、今日私たちが構築する AI システムは、人間が経験できる範囲よりもさらに狭い、現実のごく一部に限定されています。 私たちが最終的に日常の経験と矛盾する現実を理解するようになるのと同じように、自らの現実を疑い、自己探索を行い、少なくとも因果推論を適用して世界の合理的なモデルを構築できるシステムを作成できたときにのみ、真の AGI が実現されます。 この見通しは、人類の歴史において、宇宙における私たちの重要性が減少しつつあることを私たちが受け入れ始める新たな段階に入っていることの兆候である可能性がある。 オリジナル記事:Valentino Zocca オリジナルリンク: https://aisupremacy.substack.com/p/how-far-are-we-from-agi 編纂者:雲静 |
>>: 天津の高層ビルで火災が発生した。高層ビルで火災が発生したらどうやって逃げればいいのでしょうか?
配車アプリのウーバーは昨日、カーネギーメロン大学と協力し、ピッツバーグにウーバー先端技術センターを設...
制作:中国科学普及協会著者: ルアン・チュンヤン (清華大学物理学科)プロデューサー: 中国科学博覧...
毎年旧暦の3月に、首都の住民はエンドウ豆の黄身をおやつとして食べる習慣があります。ピーイエローは、お...
私たち全員が食べたことがある簡単な家庭料理があります。それはカレーポテトビーフです。カレーポテトビー...
近代化が進むにつれて、人々の生活の質も絶えず向上し、人々の生活水準も絶えず向上し、人々のライフスタイ...
相対性理論によれば、「あらゆる粒子の速度は光速よりも遅い」とされています。ここでの速度とは、具体的に...
蒸し肉を食べたことがありますか?特に中国東北部では、蒸し肉を食べるのが好きで、特に旧正月にはどの家庭...
食べ物について話すと、きっと多くの人が尽きることなく語り合うでしょう。食べ物は生命の源であり、世界中...
普段から車に注目している方なら、五菱宏光が中国の自動車販売ランキングで神のような存在であることはご存...
私たちの生活経済が改善し続けるにつれて、多くの女の子が自分の体型に非常に厳しい要求を抱くようになりま...
ビールは酒の席に欠かせない飲み物です。ビールがビールになるのは、主に酵母発酵によるもので、発酵によっ...
社会の進歩と発展に伴い、人々の生活水準はますます向上していますが、人々の生活のペースはますます緊張し...