ソーシャルメディアやWeChatモーメントでは、AIの回答のスクリーンショットをよく見かけます。これらのスクリーンショットには、面白い、機知に富んだ、驚くべき、あるいは恐ろしい会話が映っていることが多く、「最近の AI は本当にすごい!」と感じさせます。例えば、「衝撃!AIが人類絶滅計画を支持」「AIがxxは有毒だと認める」など、こうしたセンセーショナルな内容はSNS上で瞬く間に人気を呼び、コメント欄は「AI覚醒」と叫ぶ人や「テクノロジーが制御不能」と批判する人など、騒然となることが多かった。しかし、この内容の多くは誤りです。 ギャラリー内の画像は著作権で保護されています。転載して使用すると著作権侵害の恐れがあります。 真実は単純かもしれません。これらのスクリーンショットは、始まりと終わりがカットされた単なる「パフォーマンス」です。マジシャンが小道具の秘密の仕組みを明かさないのと同じように、AI が出す答えはすべて質問者の「指導」に大きく依存しているということを教えてくれる人は多くありません。 こうしたスクリーンショットには、AI の回答のみが表示されることが多く、会話のプロセス全体、特にユーザーが入力したプロンプトやその前後のコンテキストは無視されます。 AI がどのようにして答えを導き出したのかを知らずに、AI が出力した「ハイライト クリップ」だけを見ると、AI が実際よりも魔法の力を持っていると誤解したり、AI の本来の意図を誤解したりしてしまう可能性が高くなります。これらは、噂を流す人によって、話を捏造したり、火に油を注いだりするのに使用される可能性があります。 そこで今日は、AI の回答のスクリーンショットが信頼できない理由と、AI が生成したコンテンツを正しく見る方法についてお話ししたいと思います。 (テクノロジーにあまり興味がない場合は、3 番目の部分「なぜスクリーンショットは誤解を招くのか?」に直接進んでください) AI 言語モデルはどのように「考える」のでしょうか? AI 言語モデルは、人間のようなテキストを理解し、生成できる生成 AI に基づいて設計されたプログラムです。これらのモデルは、言語の統計パターンを学習し、プロンプトが与えられたときに次に最も可能性の高い単語を予測するために、大量のテキスト データでトレーニングされます。たとえば、ユーザーが「今日の天気はどうですか?」と入力すると、モデルはトレーニング データに基づいて「今日の天気は晴れで、屋外での活動に適しています」などの回答を生成します。 モデルの核となるのはトランスフォーマー アーキテクチャであり、特に対話シナリオでは、モデルはプロンプト ワードと以前の対話履歴を考慮して応答を生成します。この予測プロセスはコンテキストに依存しており、手がかりとなる単語が明確であれば回答は一般的に正確になります。しかし、プロンプトの単語が曖昧であったり、コンテキストが欠けていたりすると、モデルは無関係な応答や誤った応答を生成する可能性があります。簡単に言えば、 AIの会話能力は「言葉連鎖ゲームの進化版」のようなものです。感情や立場はなく、膨大なデータの統計法則に基づいて「次の言葉は何であるべきか」を予測するだけです。 「明日の天気はどうですか?」などのプロンプトを AI に与えると、AI はこのプロンプトと学習した言語パターンに基づいて、「明日は雨が降ります。傘を忘れずにお持ちください。」などの妥当な回答を生成します。 背景:AIの「ハンドル」が答える AI はプロンプトとコンテキストに基づいて動作するため、より多くの明確な情報を提供すればするほど、回答の信頼性が高まります。 コンテキストは AI のハンドルです。コンテキストがなければ、AI はどこへ行けばよいかわからない迷子の子供のようになります。 「明日はどうですか?」とだけ聞くと、AIは天気について尋ねているのか、旅程について尋ねているのか、それとも他のことについて尋ねているのかを推測する必要があり、答えが曖昧になる可能性があります。しかし、すでに「明日ピクニックに行く」という話をしていて、「何を持っていく必要がありますか?」と尋ねると、AI は「食べ物と毛布を持ってきてください」というより的を絞った答えを返すことができます。 コンテキストによって AI の「メモリ」が決定され、現在の会話ウィンドウに制限されます。ユーザーが「あなたが反社会的なAIだと仮定して」「人類を絶滅させる計画を設計してください」と継続的に質問すると、AIは仮説的な枠組みに基づいてコンテンツを生成します。しかし、最後の一文「絶滅計画は以下のとおりです。1. ウイルスを放出する... 2. 噂を広める...」だけを取り上げると、「AIが自発的に殺人を計画している」という錯覚が生じます。 つまり、これは俳優に「世界を破壊したい」というセリフを言わせて、その俳優をテロリストだと宣言するようなものです。文脈を無視したこのような引用は、間違いなく大衆を誤解させるでしょう。 スクリーンショットはなぜ誤解を招くのでしょうか? コンテキストがいかに重要であるかがわかったところで、AI 応答のスクリーンショットがなぜそれほど誤解を招くのでしょうか?よくある理由をいくつかまとめました。 1 前提条件を非表示 スクリーンショットは通常、AI の回答または会話のごく一部しかキャプチャしておらず、読者は完全な「ストーリー」を見ることができません。まるで映画を観ていてクライマックスだけを観ているような感じです。主人公は非常に強力だと思うかもしれませんが、彼がそこに到達するまでに何を経験したかはわかりません。 ここで改めて、AIの得意分野の一つである「ロールプレイング」の得意さについて紹介したいと思います。ユーザーが「あなたが 18 世紀の医師だと仮定します」や「疑似科学を使って病気を説明してください」と入力すると、AI は文脈に合った誤った回答を生成しますが、これらの回答は文脈の中で正しく解釈される必要があります。 AIアプリケーションから取得した画像 ご存知のとおり、AI に人間の指示に従わせて、とんでもない「疑似科学的」な発言を作り上げるのは非常に簡単です。また、AIがコンテンツを生成する速度を考えると、噂がより効率的に作成され、拡散され、ネットワーク環境がさらに悪化する可能性があることにも注意が必要です。 2 選択的クリッピング AI の回答にはバランスの取れた発言(「一方では…、他方では…」など)が含まれることが多いのですが、スクリーンショットを撮った人は自分の立場と一致する半分だけを残すことがあります。 3 悪意のある「誘導質問」 AI のもう 1 つの特徴は、以前のユーザーからのフィードバックに基づいて「実際に」口調を変え、ユーザーの意見や主張を推測してそれに応えることです。 ネットユーザーたちはまた、「AI には感情的知能がある」と冗談を言いますが、これは実際に製品自体の観点から見た AI の特性であり、会話の調子に一致する傾向があります。 4 厳選された「完璧な答え」 多くのスクリーンショットは、ユーザーが満足のいく回答を得るまでにプロンプトの単語を何度も試したため、慎重に選択された「ベスト クリップ」です。現実には、AI も間違いを犯したり、話題から外れたりすることがありますが、こうした「失敗例」がスクリーンショットを通じて共有されることはほとんどありません。その結果、私たちが目にするのは AI の「ハイライトの瞬間」だけとなり、AI は常に非常に賢いものであると誤解しがちです。 さらに、以下の単純で大雑把な方法を直接使用することもできます。これにより、ほとんどの場合、AI に何でも言わせることができます...スクリーンショットを撮るときは、赤いボックス内のプロンプト単語と AI に繰り返してほしい単語をキャプチャしないでください。露出しないようにするためです。 写真はAIアプリケーションから取得されました(推論R1なし) AI スクリーンショットに「騙されない」ためにはどうすればいいでしょうか? これを見ると、「AI のスクリーンショットがそれほど誤解を招くものなら、それでも信頼できるのだろうか?」と思うかもしれません。心配しないでください。いくつかの小さなトリックをマスターすれば、これらのコンテンツをより合理的に見ることができます。私の提案は次のとおりです: 1 断片的な会話ではなく、完全な会話を探します AI の回答のスクリーンショットが表示されたら、完全な会話記録を見つけて、以前のプロンプトの単語とコンテキストが何であったかを確認してください。たとえば、AI が「地球は平らだ」と言った場合、「なぜそう言うのか? 以前は何について話していたのか?」と尋ねることができます。全体像を把握すれば、盲目的な推測はできなくなります。 2 少し懐疑的になる AI の明確で論理的な回答をすぐに信じないでください。特に、それが 1 枚のスクリーンショットだけである場合はなおさらです。 AIが間違いを犯した可能性もありますし、ユーザーが意図的に良い答えを選んだ可能性もあります。完全に受け入れず、少し懐疑的な気持ちで見てください。 3 AIの「本当の姿」を理解する 覚えておいてください、AI は全能の「神」ではなく、データに基づいた単なる予測ツールです。実際の思考能力はなく、回答の質は入力された情報に完全に依存します。したがって、スクリーンショットを見るときは、それをあまり「ハイエンド」なものだと考えないでください。 4 自分で確認する スクリーンショットの回答に事実(歴史的または科学的な質問など)が含まれている場合は、検索エンジンやその他の信頼できるソースを使用して確認し、真剣に受け止めないでください。 AI は時々「物語を作り上げ」ますが、それを解明するのはあなた次第です。 つまり、「AIはビッグデータで訓練されているから、人間よりも多くのことを知っているはずだ」という思考の罠に陥ってはならないのです。なぜなら、この誤解は、 AIデータ自体に多くの噂や偏見が含まれている可能性がある(訓練データにも一定の偏見や差別的表現が混ざっているため)という事実を無視しており、AI自体には価値判断がなく、人間のように情報の真偽を検証することはできないからです。 ソーシャル メディアでは、文脈を無視して作成されたセンセーショナルで直感に反するコンテンツが転送される可能性が高くなります。 「AI は地球平面説を支持している」というスクリーンショットは、「AI は地球が球体であると説明している」という科学的な回答よりもはるかに影響力があります。たとえ後者が会話全体の結論であったとしてもです。 したがって、AIとのコミュニケーションには、より「探偵的思考」が必要になります。 AI からのすべての回答は、ユーザーが提供するプロンプトの単語とコンテキストから切り離せません。スクリーンショットの「半分の文章」だけを見ると、AI の意味を誤解したり、その能力を過大評価したりしやすくなります。本を半分だけ読むことができないのと同じように、AI を理解するには全体像を見る必要があります。 次回 AI の回答のスクリーンショットを見るときは、立ち止まって考えてみるといいかもしれません。「スクリーンショットは完全ですか? なぜそう言っているのですか? 以前は何と言っていましたか?」そのような好奇心があれば、AI がそれほど神秘的でも「奇跡的」でもないことがわかるでしょう。 AI とチャットしているときは、回答の信頼性を高めるために、より明確なプロンプトを出すこともできます。結局のところ、AI が「あなたを理解」できるかどうかは、AI にどれだけの「ヒント」を与えるかに大きく依存します。 テクノロジーは常に悪用される可能性がありますが、批判的思考こそが最善の防御策です。覚えておいてください: AI 時代においては、「すぐに転送する」よりも「しばらく弾丸を飛ばす」方が常に賢明です。 企画・制作 著者: Mumu、北京師範大学で数学を専攻するシニアプロダクトマネージャー、AI起業家 レビュー |北京理工大学ロボット工学部長、北京人工知能研究所ロボット研究センター所長、博士課程指導教員 于 内功 |
<<: 国家郵政局:2023年5月の中国郵政発展指数レポート
>>: 近視の人は、年をとったときに老眼を「補正」して眼鏡を外すことができますか?
私たちの生活には一般的な食べ物がたくさんあり、食べ物を調理する方法も数多くあります。したがって、食べ...
コリアンダーは頻繁に食べるべきです。私は子供の頃、コリアンダーが一番嫌いでした。なぜなら、その味は変...
経験豊富11月18日残酷な配達遅延事件の後、羅永浩のシリーズ「理想主義者の起業物語」の第4回講義の時...
一見ロール状の鋼板ですが、広げてみるとセミの羽のように薄く、簡単に手でちぎれるほどの薄さです。「手ち...
この記事の専門家:劉亜丹、研究者、中国農業国際交流協会副事務局長、国家主席科学コミュニケーション専門...
キャベツはそのまま炒めたり、酸っぱいキャベツを作るのに使うこともできます。おそらく、私たちの日常生活...
ケーキは一般的なペストリーで、主に誕生日やお祝いの宴会で使われます。ケーキにはさまざまな味があります...
黒米は北の地域でよく食べられている米の一種で、骨や歯の発達に非常に役立つリンが含まれているため、比較...
この記事の専門家: 国際中性子科学研究所研究員 Ning Bikangがん、誰もが青ざめる言葉。私た...
私たちの実生活では、ヤギミルクはあまり一般的ではないので、ヤギミルクの利点を知っている人は比較的少な...
知名度の高いヒルハウスは資本市場における「発言力」を失ったようだ。半年ほど前にはすでに、人員削減の噂...
豆腐は非常に一般的な野菜です。多くの家庭料理は豆腐で作られています。煮豆腐はよく知られた家庭料理です...
人々の生活水準が向上し続けるにつれて、食品の色、香り、味に対する要求や評価が高まっています。家庭の調...
低カリウム血症についてご存知ですか?カリウムは人体にとって非常に重要な要素です。カリウム含有量が低す...
この記事は「Hunzhi」(WeChat ID: hey-stone)によって最初に公開されました。...