AIは信頼できるのか?

AIは信頼できるのか?

最近、Google のエンジニアである Blake Lemoine についての記事、インタビュー、その他のメディア報道が大量にありました。なぜなら、ルモワン氏は、人工知能(AI)大規模言語モデルLaMDAは、ユーザーとコミュニケーションをとる際に「7歳か8歳の子どものような」知覚能力を備えていると発表したからだ。

図|Googleエンジニアのブレイク・ルモワン(出典:ワシントンポスト)

このテーマについてさまざまな視点から読んだ結果、現在の AI テクノロジーに関するメディアの誇大宣伝は (少し) がっかりするものになっていると言わざるを得ません。ディープ ニューラル ネットワークが「知覚」や「意識」を持たない理由については、多くの議論がなされてきました。これは、AI システムが独自の言語を発明し、人間の仕事をすべて奪い、汎用人工知能 (AGI) へと急速に進んでいると主張するセンセーショナルな記事をニュース メディアが報道していた数年前と比べると進歩です。

しかし、人々が「知覚」と「意識」について議論しているという事実は、重要な点を改めて示しています。今日の大規模言語モデルはますます説得力のあるものになってきていますが、科学者たちは依然としてさまざまな場面で、何らかの根本的な欠陥があると指摘しています。 「AI が人間を騙す」という話題は、1960 年代の ELIZA チャットボット以来議論されてきましたが、今日の大規模言語モデルはまさに別次元にあります。言語モデルがどのように機能するかを知らないと、Lemoine 氏と LaMDA の会話は、たとえ慎重に選択され編集されているとしても、非現実的に思えるかもしれません。

しかし、「知覚」と「認識」は、大規模な言語モデルや現在の AI テクノロジーについて議論するのに最適なトピックではありません。特にこれらのテクノロジーが人間の日常的なアプリケーションにますます統合されるようになるにつれて、より重要な議論は、人間の適合性と信頼性についてであるはずです。

大規模言語モデルは「人間の言語」を知らない

先週、私たちはニューラル ネットワークと大規模言語モデルがどのように機能するかについて多くのことを議論しました。この記事では、まず人間の言語から始めて、現在の状況を俯瞰してみたいと思います。

人間にとって、言語は脳内で行われる複雑で多次元的な活動を伝達する手段です。たとえば、二人の兄弟が話しているときに、一人が「お母さん」と言うと、その言葉は、お母さんの声、顔、感情、遠い過去から最近までのさまざまな経験の記憶など、脳のさまざまな部分で多くの活動を伴います。しかし実際には、個人の経験に応じて、脳内でそれを表現する方法は大きく異なる可能性があります。しかし、「お母さん」という言葉は、簡潔で代表的な近似値を提供し、同じ概念に同意するのに役立ちます。

見知らぬ人との会話の中で「お母さん」という言葉を使うと、経験と記憶の差はさらに大きくなります。しかし、皆さんは心の中の共通の概念に基づいて合意に達しました。

言語は、脳内の膨大な情報を他の人に伝えるのに役立つアルゴリズムであると考えてください。言語の進化は、私たちの環境における物理的な相互作用から他の人々との社会的相互作用まで、世界での私たちの経験と密接に結びついています。

言語は、世界における私たちの共通の経験に基づいて構築されます。子どもたちは、最初の言葉を話す前から、重力、次元、物体の物理的一貫性、そして痛み、悲しみ、恐怖、家族、友情といった人間的および社会的概念について知っています。これらの経験がなければ、言語は意味を持たなくなります。このため、言語は対話者間で共有される常識や情報を無視することがよくあります。一方、経験や思い出をどれだけ共有するかによって、相手とのつながりの深さが決まります。

(出典: Pixabay)

対照的に、大規模言語モデルには物理的および社会的経験がありません。ロボットは数十億の単語を学習し、次の単語のシーケンスを予測することでプロンプトに応答することを学びます。このアプローチは、特にトランスフォーマー アーキテクチャの導入後、ここ数年で大きな成果を上げています。

では、トランスフォーマーはどのようにして説得力のある予測を行うのでしょうか?まず、テキストを「トークン」と「埋め込み」、つまり多次元空間における単語の数学的表現に変換します。次に、埋め込みが処理されて、テキストシーケンス内の単語間の関係や、文や段落内での役割など、他の次元が追加されます。十分な例があれば、これらの埋め込みによって、単語がシーケンス内でどのように表示されるかについての近似値を適切に作成できます。トランスフォーマー アーキテクチャは、スケーラブルであるため特に人気があります。つまり、規模が大きくなり、より多くのデータを受信するにつれて精度が向上し、ほとんどの場合、教師なし学習によってトレーニングできます。

しかし、根本的な違いは残ります。ニューラル ネットワークは、言語を埋め込みに変換して処理します。そして人間にとって、言語とは思考、感情、記憶、身体的経験、そして脳に関するまだ発見されていない多くの事柄が埋め込まれたものである。

そのため、トランスフォーマー、大規模言語モデル、ディープニューラルネットワークなどによって大きな進歩が遂げられたにもかかわらず、それらはまだ人間の言語には程遠いのです。

AIは信頼できるのか?

現在、業界では、AI システムに知覚、意識、人格などの属性を付与すべきかどうかについて多くの議論が行われています。こうした議論の問題点は、人によって意味が異なる、漠然と定義された概念に焦点を当てていることです。

たとえば、機能主義者は、ニューラル ネットワークと大規模言語モデルは異なる基盤の上に構築されているにもかかわらず、人間に見られると予想される動作とほぼ同じ種類の動作を示すため、意識があると主張するかもしれません。しかし、意識には有機物が必要であり、神経ネットワークが意識を持つことは決してできないと信じて、これに反対する人もいるかもしれません。

しかし、より現実的な疑問は、現在のニューラル ネットワークは人間の思考とどの程度「互換性」があり、主要なアプリケーション シナリオにおいて人間に信頼できるのか、ということです。大規模言語モデルは主に企業によって商業的に使用されるため、これは重要なトピックです。

たとえば、十分な訓練を受ければ、チンパンジーは車の運転を習得できるかもしれない。しかし、歩行者が道路を横断しようとしているときに車を運転させても安心できるでしょうか?そんなことはしないでしょう。なぜなら、チンパンジーがどんなに賢くても、人間と同じようには考えず、個人の安全に関わる作業はできないことを知っているからです。

同様に、オウムはいくつかのフレーズを学習できますが、それをカスタマー サービス エージェントとして使用しますか?おそらくそうではないでしょう。

(出典: Pixabay)

人間の場合も、認知障害により、対人スキルを必要とする仕事や、人間の安全に関わる仕事を遂行できない人々がいます。多くの場合、これらの人は流暢に読み書きし、話すことができ、長時間の会話でも一貫性と論理性を保つことができます。私たちは彼らの知覚、意識、あるいは人格を疑っていません。しかし、私たちは、彼らの病気のせいで、物事に対する彼らの決断が一貫性がなく、予測できないものになる可能性があることを知っています。

重要なのは、彼らが普通の人と同じように考え、決断を下せると信頼できるかどうかです。多くの場合、私たちが権力のある人を信頼するのは、たとえ彼らが私たちと同じ言語を話さなくても、彼らの感覚システム、常識的な知識、感情、目標、報酬が根本的に私たち自身のものと一致しているからです。

さて、最近の出来事に戻りますが、LaMDA について私たちは何を知っているでしょうか?まず、人間とは違った視点で世界を認識します。その言語的「知識」は、私たちと同じ経験に基づいていません。膨大な量のテキストで、言語に関して私たちが見落としているすべてのことが網羅されるという保証はないため、その常識的な知識は不安定な基盤の上に成り立っています。

この非互換性を考慮すると、たとえテキスト出力の生成がいかに優れていても、LaMDA やその他の大規模言語モデルをどの程度信頼できるでしょうか。会話をデリケートな話題に導かない限り、フレンドリーで楽​​しいチャットボットはおそらく悪いアイデアではないでしょう。検索エンジンも大規模言語モデルの優れた応用分野です (Google は近年、検索に BERT を使用しています)。しかし、オープンな顧客サービス チャットボットや銀行アドバイザーなどの機密性の高いタスクを彼らに任せることができるでしょうか?たとえ、大量の関連する会話のトランスクリプトでトレーニングまたは微調整されていたとしても。

私の意見では、大規模な言語モデルの一貫性と、さまざまなドメインにおける人間の常識との互換性をテストするには、アプリケーション固有のベンチマークが必要です。実際のアプリケーションでは、大規模な言語モデルの会話を終了して人間のオペレーターに引き渡す場所について、常に明確に定義された境界が存在する必要があります。

AIには注意が必要

実際には、人間の知能は適切な問題を見つけるために使用され、AI はそれらを最も効率的な方法で解決するために使用されます。

コンピュータは人間の認知能力を必要とせずに複雑な問題を解決するための近道を見つけることができ、チェッカー、チェス、囲碁、プログラミング競技、タンパク質の折り畳み、その他の明確に定義された問題で成功を収めていることが何度も確認されています。

自然言語は、AI が解決した他のすべての問題とはいくつかの点で異なりますが、似ているところもあります。

一方、トランスフォーマーと大規模言語モデルは、人間のように共通知識に基づいて他者と対話するための言語を獲得する前に、世界を探索してその基本ルールを理解する必要がないことを実証しました。印象的な結果を直接生み出すことができます。その一方で、人間が言語を学習する過程で得る経験が欠けています。

大規模言語モデルは、明確に定義された言語関連の問題には有効に機能しますが、人間の言語処理との互換性は非常に限られています。したがって、彼らを信頼する際には、依然として十分な注意を払う必要があります。

参考文献:

https://bdtechtalks.com/2022/06/20/lamda-large- language-models-sentient-ai/

https://www.reddit.com/r/artificial/comments/vgl1so/sentience_is_the_wrong_Discussion_to_have_on_ai/

https://www.washingtonpost.com/technology/2022/06/11/google-ai-lamda-blake-lemoine/

<<:  チベットに超レアなエルフの稲妻が出現しました。これが魔法の世界です!

>>:  日本の富士山は噴火するでしょうか?それは我が国に何らかの影響を及ぼしますか?

推薦する

水に浸したゴーヤは減量に役立ちますか?

ゴーヤは私たちの生活に馴染みのある野菜です。ゴーヤは比較的苦い味がします。ゴーヤを食べたことがある友...

これは何ですか?南極では数万羽の小さなペンギンが20メートルの高さの氷の崖から飛び降りるために列を作っている

数万羽の皇帝ペンギンの赤ちゃんが氷山に沿ってよろめきながら歩き、ついには海抜約15~20メートルの氷...

デルファイとモービルアイがCSLP自動運転プラットフォームの構築で協力

デルファイとモービルアイは、業界をリードする部品サプライヤーとして、自動運転の分野ではグーグルやテス...

深刻で致命的になり得るキッチンの安全上の危険 9 つ!特に最初のものは、多くの人が騙されている

キッチンは、家族の温かさと喜びを運び、おいしい料理を作る神聖な場所です。家族と一緒に料理をしながらお...

おいしいマンボウの作り方

マンボウは比較的一般的な淡水魚であり、多くの一般の人々は、この魚についてよく知っています。一部の都市...

起動は数秒でしかできないのですか?これはSSDに関する最大の誤解です

なぜ、コンピューターを購入するのに 3,000 ~ 4,000 ドルを費やすことをいとわない人がいる...

下痢のときに食べるべき食べ物

食べ物は生活の中でとても一般的です。さまざまな食べ物は、さまざまな方法で人体を助けます。盲目的に食べ...

豚肉とピーマンの炒め物

ピーマンは、実は私たちが普段ランタンペッパーやスイートペッパーと呼んでいるものです。食卓でよく食べる...

脳に活力を与える16の食品

勉強しようと本を手に取っても、仕事をしようとパソコンを開いても、眠気が襲ってきます。そんな状態が続く...

GAC Trumpchi New Energy E8 Honorシリーズの価格は166,800人民元から。よりスマートで、より快適で、より大きく、より高性能

待望のHonor E8! 7月16日、中国で最も好まれるファミリーカー、トランプチニューエナジーE8...

ガチョウの煮込みの作り方

人生において、煮込み料理、特に煮込み肉や煮込みガチョウを好む友人は多いと思うので、煮込みガチョウのよ...

IEAレポート:中国のエネルギー分野におけるカーボンニュートラルに向けたロードマップ

過去40年間、中国の目覚ましい経済成長により、何億人もの人々が貧困から脱し、多くの産業で中国はリーダ...

彼らは「青海・チベット暗号」を解読している

青海・チベット高原は、地球上で最もユニークな地質、地理、資源、生態系の単位であり、科学界からは「自然...

風邪をひいているときに菊茶を飲んでも大丈夫ですか?

菊茶は日常生活でよく飲まれるお茶です。お茶を飲む前に、このお茶がどのような状況で飲めるのかなどを理解...