人工知能に関する長文レポート: 人工知能の問題点を15,000語で解説

人工知能に関する長文レポート: 人工知能の問題点を15,000語で解説

序文

人工知能 (AI) は、機械学習、推論、知覚、自然言語処理などの技術の集合体です。人工知能の概念と応用は65年前に始まりましたが、最近のAIの進歩と応用により、この技術は再びホットな話題となっています。 AI が人間の社会生活や経済生活のあらゆる側面に広く適用されるにつれて、新たな機会と課題が生じます。その大きな潜在的影響により、人類は AI 技術の開発と応用について慎重に考える必要に迫られています。

今年7月に開催された「AI Now」ワークショップは、ホワイトハウスの科学技術政策局と国家経済会議が共同で推進した一連の研究の最後のものだった。これまでの一連の研究では、政策や規制からAIのセキュリティ管理、AIの公共の福祉、AIの可能性をどのように活用するかに至るまで、さまざまな観点からAIを分析および研究してきました。今回の「AI Now」では、今後10年間の社会・経済分野におけるAIの影響を中心に議論します。世界中のさまざまな分野の専門家や学者が集まり、意見を述べました。議論された質問には、現段階での AI の急速な発展によってどのような問題が引き起こされたか、などがあります。より公平で公正な未来を創造するために、AI をより深く理解し、活用するにはどうすればよいでしょうか?

社会問題や経済問題は数え切れないほどあります。今回の「AI Now」では、主に「医療」「労働雇用」「AIの公平性」「AIの倫理」の原則について議論します。

「医療」と「労働雇用」を主なテーマとして選んだ理由は、この2つの分野にAIが広く浸透しており、AIがもたらす可能性のある問題がこの2つの分野でより顕著かつ明白であるためです。 「AIの公平性」と「AIの倫理」は、AIが世界平和に貢献するのか、それとも社会の不正義を悪化させるのか、将来誰もが関心を持つ問題です。 AI の恩恵が全人類に共有されるようにするにはどうすればよいでしょうか?

このセミナーは、AI が人類社会にさらに貢献できるようにすることを目的としています。多くの専門家や学者を集めて議論するこの「AI Now」セミナーは、人工知能コミュニティの内外にとって大きな意義を持っています。

質問と提案

セミナーでは、AIが将来引き起こす可能性のある状況を予測し、それに応じた提案を行いました。以下の提案は参加者全員の知恵の結晶であり、特定の個人または組織の立場を代表するものではないことを明記しておきます。

AI が社会経済生活のあらゆる側面にますます適用されるようになるにつれて、以下の質問とそれに応じた提案は、関連分野の投資家や実務家にとって参考ガイドとして役立ちます。

1. 問題: AI の開発と応用は、特定のインフラストラクチャと人的および物的リソースに依存します。これらの基本的なリソースの不足は間違いなく AI の開発を制限することになり、AI 開発の初期段階ではこれらのインフラストラクチャとリソースの習得が重要になります。

推奨事項: 複数のチャネルから AI を開発するためのリソース ベースを改善します。データセット、コンピュータ、関連する人材の教育とトレーニングなどのサポート分野の構築に重点を置きます。

2. 質問:現在の AI のレベルはまだ初期段階ですが、AI はすでに多くの分野で人工アシスタントとして存在しており、労使関係にも影響を及ぼしています。オバマ大統領の経済諮問委員会のジェイソン・ファーマン委員長は、AIや自動化機械に置き換えられる可能性が最も高い仕事は低スキルの肉体労働であると述べた。ロボットが人間と仕事を競い合うようになれば、人的資源の配分も変化するでしょう。

推奨事項:AIの関与によってもたらされる雇用構造の変化に対応するために、考え方とスキルをアップデートします。将来的には、AIマシンが低スキルの仕事の大半を引き継ぐようになり、人々は新たな状況に対応するためにスキルの蓄えや収入と支出の方向性を調整する必要があるだろう。

3. 問題: AI と自動化のプロセスは通常、目に見えないところで実行されます。人間の関与がなければ、機械は不公平または不適切な決定を下す可能性があります。 AI アプリケーションが拡大するにつれて、AI による判断と修正はより重要かつ困難になります。

推奨事項: AI のキャリブレーションとエラッタに関する研究をサポートし、AI エラーの危険性評価手順も議題に載せる必要があります。こうした研究は、人間のシステムにおける行政と正義が連動しているのと同じように、AI の急速な進歩と連動して発展するはずです。こうすることで、AI によるミスを早期に発見し、深刻な結果を回避できるようになります。

4. 問題: AI モデルにおける公的機関と民間機関の公平性と説明責任に関する研究は、コンピューター詐欺および悪用防止法 (CFAA) やデジタルミレニアム著作権法 (DMCA) など、米国の現行法の一部と矛盾しているようです。

推奨事項: 明確に述べれば、コンピュータ詐欺および悪用防止法もデジタルミレニアム著作権法も研究を制限するものではありません。

5. 質問:医療や労働など多くの分野で AI が急速に活用されていますが、現在のところ、人間が AI の影響を評価する方法は確立されていません

推奨事項: AI 影響評価システムの研究をサポートします。さらに、この分野の研究は、その結果が政府の行政に活用できるよう、政府機関と緊密に連携して行われるべきである。

6. 問題: AI の導入によって権利や利益が損なわれる人々の声はしばしば無視されます

推奨事項: AI システムを構築する際には、影響を受ける人々の意見を聞く必要があります。 AI は不公平になったり過激になり過ぎたりしないように、すべての関係者が共同で設計する必要があります。

7. 問題: AI 研究は主に電子技術に焦点を当てており、人間の問題に十分な注意が払われていないことがよくあります。将来、コンピュータサイエンス分野のメンバーはますます均質化、統一化され、それが AI 開発者のビジョンと経験に悪影響を及ぼし、AI 製品の作成にも影響を及ぼすことになります。

推奨事項: AI の研究者と開発者は、可能な限り多様化する必要があります。開発者の多様性と多元性により、より豊かで多彩な AI 製品も生まれます。将来、AI 分野は、AI システムが電子コンピューティング、社会科学、人文科学を統合できるように、より学際的な研究をサポートする必要があります。

8. 問題:既存の倫理基準では、AI が現実に直面する問題の複雑さに対処できなくなりました。 (例えば、医療、法執行、刑事判決、労働など)一方、大学のコンピュータ授業などでは、理工系の科目で道徳教育に徐々に配慮するようになってきているものの、実践に徹底されているとは言えません。

推奨事項: 人工知能協会 (AAAI)、計算機協会 (ACM)、電気電子技術者協会 (IEEE) などの専門組織と協力して、新しい状況に対応できる倫理基準の開発を促進します。同時に、これらの新しい倫理基準は学校の教室で実施されるべきです。コンピュータサイエンスに興味のあるすべての学生は、専門コースに加えて、公民権や自由などに関する道徳教育を受ける必要があります。したがって、AI が浸透している分野 (医療現場など) で働く実務家も、これらの新しい倫理基準を認識する必要があります。

今日の人工知能に関する4つの重要な疑問

ここでは、現在 AI を取り巻く 4 つの主要な問題を詳しく取り上げ、読者に業界の専門家からの洞察とアドバイスを得る機会を提供します。議論には、各主要問題に対する課題、機会、および可能な介入が含まれます。

  1. 社会的不正義

人工知能システムはどのようにして偏見や差別などの社会的不正義を引き起こすのでしょうか?

人工知能システムは、信用や保険から第三者の意思決定や仮釈放問題に至るまで、重要な意思決定の分野でますます重要な役割を果たしています。人工知能技術は、誰が重要な機会を得て、誰が見捨てられるかを決定する際に人間に取って代わるようになり、権利、自由、社会正義に関する一連の問題を引き起こすことになるだろう。

人工知能システムの応用は人間の主観的な偏見によって引き起こされる一連の問題を克服するのに役立つと信じる人がいる一方で、人工知能システムがこれらの偏見を増幅させ、機会の不平等をさらに拡大するのではないかと懸念する人もいます。

この議論では、データが重要な役割を果たし、人々の強い注目を集めるでしょう。人工知能システムの動作は、多くの場合、取得したデータに依存し、このデータの直感的な反映でもあります。これには、データのソースと収集プロセスにおける偏りも含まれます。この観点から見ると、人工知能の影響は、対応するビッグデータ技術と密接に関連しています。

大まかに言えば、データのバイアスには 2 つの形式があります。

1 つ目は、収集されたデータが客観的に実際の状況を正確に反映できないことです (主な原因は、測定方法が不正確であること、データ収集が不完全または過度に一方的であること、自己評価が標準化されていないこと、データ収集プロセスにおけるその他の欠陥など)。

2 つ目は、データ収集プロセスに主観的な構造的偏りがあることです (キャリア データを収集する際に、主観的に男子を女子より優遇することで、キャリアの成功率を意図的に予測するなど)。

前者のタイプのデータバイアスは、「データを精製する」か、データ収集プロセスを改善することで解決できます。しかし、後者には複雑な人間の介入が必要です。多くの組織がこの問題に対処するために多大な努力を払ってきたにもかかわらず、データの偏りを「検出」する方法についてはまだ合意が得られていないことは注目に値します。

収集されたデータに上記の偏差がある場合、そのようなデータでトレーニングされた人工知能システムにも対応する偏差があり、それが生成するモデルまたは結果は必然的にそのような偏差を複製して増幅します。この場合、AI システムによる決定は差別的な影響を及ぼし、社会的不公正につながります。そして、この不公平は人間の偏見や不正よりもはるかに微妙なものです。

リスク管理が中心の業界では、人工知能システムの広範な適用により、特に保険やその他の社会保障業界で、微妙な違いに基づいて人々を疎外するなどの現象が大幅に増加しています。人工知能システムを適用することで、企業は「逆選択」を通じて特定のグループや個人をより効果的に識別し、リスクを効果的に回避できるようになります。

例えば、医療保険の分野では、人工知能システムが保険契約者の特徴や行動を分析し、特殊な病気にかかっている人や将来の罹患率が高いと判断された人には高い保険料を請求するようになるだろう。このような状況では、健康状態が悪く、経済力が低い人々にとって特に不利となります。このため、たとえ AI システムの予測が正確で保険会社が合理的に行動したとしても、その影響はしばしばマイナスであると批評家はしばしば非難するのです。

保険業界における競争によりこの傾向が悪化する可能性があり、最終的には人工知能システムの使用によりこの不平等が悪化する可能性があります。もちろん、関連する差別禁止法や規制の規範原則はこれらの問題の解決に役立ちますが、このアプローチが最も効果的または公平であるとは限りません。さらに、AI システムの設計と展開も重要ですが、既存の法的枠組みが関連する研究を妨げる可能性があります。この種の研究は、コンピュータ詐欺および悪用防止法(CFAA)やデジタルミレニアム著作権法(DMCA)などの法律によって制限されているため、必要な研究が円滑に進むように現在の規制を改革する必要があります。

人工知能は少数の人々に利益をもたらすでしょうか?

人工知能システムは、経済的価値を生み出す新たな方法をもたらし、経済的価値の分配にも新たな影響を及ぼしています。ある程度、AI システムの価値の分配は特定のグループの人々に利益をもたらし、それによって既存の賃金、所得、富の分配格差を永続化または悪化させることになります。

AI技術を開発する能力を持つ組織は、この不平等を悪化させるでしょう。人工知能は、年間数十億ドルの市場価値を持つ巨大な産業になると予測されています。人工知能技術の開発には、膨大なコンピューティングリソースとビッグデータなど、非常に高価な先行投資が必要です。その結果、人工知能の開発と応用は特定の範囲に限定されることになります。この場合、強力なデータとコンピューティングパワーを備えた企業だけが、人工知能システムを通じて市場の動向をより深く理解し、より多くの優位性を獲得し、「金持ちはさらに金持ちになる」というマシュー効果をもたらし、より多くの成功をもたらすことができるでしょう。

一方、AI と自動化システムは商品やサービスのコストを削減することができ、こうしたコスト削減が消費者に利益をもたらすのであれば、AI は貧富の差を縮めることができます。この場合、AI システムは社会全体の生活水準を向上させ、段階的な再分配効果を引き起こすことさえ可能です。

さらに、人工知能はまったく新しいライフスタイルをもたらすでしょう。 AI環境では、仕事を失った人々は資源を獲得する新たな方法を求める機会を得ることができ、仕事に影響を受ける人々はAIを通じて新たな雇用機会を創出することができるようになります。言い換えれば、AI は労働危機を緩和し、人々が新しい生き方や働き方を追求できるようにし、それによって社会全体の福祉を向上させることができます。

それでも、AIシステムによって労働者の一部のスキルが不要になり、自動化によって職を失った人々が新たな雇用機会を探さざるを得なくなる可能性があると指摘する批評家もいる。たとえこれらの労働者が新しい仕事を見つけることができたとしても、そのような仕事は付加価値が低く、雇用の安定性も低いことが多い。この観点から見ると、人工知能と自動化システムは実際には仕事をなくすことになります。

さらに、新しい職業スキルの習得に非常に費用がかかる場合、労働者はそのような職業スキルの訓練が新しい仕事に見合っていないと判断する可能性があります。この場合、人工知能システムは社会的不平等を拡大するだけでなく、恒久的な失業と貧困にもつながるでしょう。そのため、AI システムが労働力に及ぼす潜在的な影響を理解することは、経済的平等への影響を理解する上で重要な側面となります。

これまでの多くのテクノロジーと同様に、AI は作成者の価値観を反映する傾向があります。したがって、AI 技術の平等性は、AI の開発、展開、保守の各段階における多様性を通じて促進することもできます。

現在、人工知能の分野やコンピューター科学者技術業界全体では、女性やマイノリティの代表者が少ない状況にあります。この状況は、ある程度、テクノロジー全体の包括性の欠如につながり、特定の偏見を生み、関連する実務家による他のグループの検討を継続または制限することにもつながりました。

AI 分野における多様性は、AI システムがさまざまな人々のグループの利益に役立つことに役立つという認識も高まっています。偏見、差別、不平等に対処するには、AI チームにはより広い視点が必要です。

2. 労使関係

仕事と AI システムに関する現在の議論は、将来人々が失業するのではないかという懸念に焦点が当てられることが多いです。最新の研究によれば、より複雑で差し迫った問題が存在し、それは労働市場だけでなく、雇用者と従業員の関係、力関係、職業上の責任、そして人間の生活における仕事の役割にも影響を及ぼしているという。

多くの伝統的な経済研究者は、AI システムの影響を考慮するために、米国の国内労働市場と企業制度を綿密に追跡しています。この種の研究は、将来どれだけの雇用が生まれるかなど、マクロ経済の動向や労働力の需給状況についての理解を深める上で非常に重要な定性データを提供することができます。

同時に、社会科学の研究では、仕事の性質や仕事のダイナミクスの変化が人々の日常生活の経験をどのように変えているのかを評価します。両方の研究視点は、AI システムが労働力に与える短期的な社会的、経済的影響を測定するために不可欠です。

AIは雇用需要に影響を与えるでしょうか?

自動化技術が経済において果たす役割は決して新しい問題ではありません。実際、AI システムの影響についての検討は長年議論されてきました。

自動化技術が普及するにつれて、必要な作業量が制限されることから、労働需要は減少すると思われるが、一部の経済学者はこれに反対し、この考えを「労働統合」の誤りと呼んでいる。彼らは、ある産業の生産性が(自動化やその他の要因により)向上すると、新しい産業が生まれ、新たな労働需要が生まれると指摘しています。たとえば、1900 年には米国の労働力の 41% を農業が占めていましたが、2000 年にはわずか 2% にまで減少しました。労働経済学者のデイビッド・オーター氏とデイビッド・ドーン氏によると、そのような大混乱があっても、長期的には失業率は上昇しておらず、就業人口比率はむしろ上昇しているという。他の2人の経済学者、ジェームズ・ハンティントンとカール・フライは、AIシステムによって雇用が大幅に減少するという悲惨な予測を立てた。

労働市場の変化や変動が技術進歩に関係しているのか、それとも単に経済政策の結果として起こっているのかについても議論がある。このタイプの見解は、AI および自動化システムの開発において既存の法制度と規制メカニズムが果たすべき役割に焦点を当てています。たとえば、ロバート・ゴードンは、現在のイノベーションの波は見た目ほど変革的ではないと主張しています。反対意見を持つ人の多くは、技術の変化により労働市場は大きな変化を遂げていると主張しています。ジョセフ・スティグリッツ氏やラリー・ミシェル氏を含むこれらの人々は、労働力を保護するには、AI や自動化システムに関連する規制やその他の政策変更に高いレベルの注意を払う必要があると考えています。

オーターやドーンなどの経済学者は、「雇用の二極化」現象が非常に顕著になりつつあることを発見しました。つまり、中程度のスキルを要する仕事が減少し、高スキルと低スキルの仕事が増加しているのです。将来的に新しい仕事が生まれる可能性はありますが、それらは低賃金で不人気になる傾向があります。

たとえば、AI システムをサポートする作業の多くは、実際には人間が行う必要があり、人間はインフラストラクチャを維持し、システムの「健全性」を管理する必要があります。この労働力は、少なくともメディアの報道や人々の AI に対する印象という点では、あまり目立たないことが多いです。そのため、過小評価されることが多いのです。こうした仕事には、オフィスを掃除してメンテナンス作業を行う清掃員、サーバーの故障を修理する修理工、そしてある記者が「データハイジニスト」と呼んだ、分析に備えてデータを「クリーニング」する仕事などが含まれる。

AI システムが労働力に与える影響についての疑問には、将来的に新しい仕事が創出されるかどうかだけでなく、それらの仕事が生活を維持できるまともな仕事になるかどうかも含まれるべきです。

さらに、AI システムと労働市場の将来に関する議論は、製造業、トラック運転、小売業、サービス業など、従来は低所得の労働者階級の仕事と考えられていた仕事に焦点が当てられることが多いですが、研究によると、放射線学や法律など、専門的な訓練や高度な教育を必要とする専門職を含む幅広い業界が将来影響を受けることが示されています。この点では、将来的には、専門的な責任と説明責任という新たな問題に対処する必要があるでしょう。

AIは雇用主と従業員の関係にどのような影響を与えるのでしょうか?

近年、研究者たちは、Uberから大手小売業者が使用する自動配車ソフトウェア、職場の監視に至るまで、ビッグデータに依存するAIと自動化システムが雇用者と従業員の関係をどのように変えているのかを研究し始めている。

調査では、こうしたシステムは労働者の権限を強化するために使用できる一方で、テクノロジーが労働者の権利を奪ったり、雇用差別を悪化させたり、不当労働行為を助長したりするなど、大きな問題を引き起こす可能性もあることが判明した。

たとえば、AI 駆動型の労働力管理およびスケジュール システムは、労働力の管理にますます使用されるようになり、オンデマンド経済の成長とプレカリアートの台頭を促進しています。適切なスケジュール設定は貴重な柔軟性をもたらすと主張する研究者もいるが、これまでの多くの研究で、そうしたシステムに従う従業員は精神的ストレスや不安に悩まされることがわかっている。

こうしたシステムで管理されている労働者の不利な経験には、慢性的な不完全雇用、経済的不安定、従来のフルタイム従業員が受けられる福利厚生の欠如、家族や自己ケアの計画を立てられないこと(または、オンコールが求められることが多い仕事の性質に耐えられないため、他の仕事を見つけられないこと)などがあります。さらに、これらの問題の影響を受ける従業員は、女性やマイノリティである可能性が高くなります。

さらに、AI システムに基づく新しいリモート管理モデルにより、従業員に重大な影響を与える「システム」による決定を雇用主に帰属させることがさらに困難になります。その結果、従業員は搾取されやすくなるのです。

たとえば、Uber のようなビッグデータと AI を活用したプラットフォームは、ルーティング、価格設定、報酬、さらには対人コミュニケーションの基準まで、従来は人間が管理していた決定をリモートで制御します。

特定の決定の性質と論理がわかりにくくなるだけでなく、このタイプのリモート管理は通常「従業員管理」とは見なされません。

こうした新しい管理モデルは既存の規制モデルにうまく適合しないため、Uber のような企業は従業員の管理者ではなくテクノロジー企業として自らを位置付けることになるでしょう。この哲学のもと、こうした企業は自らをつながりを促進するプラットフォームとみなしており、そのため従来の雇用主と同じような従業員に対する説明責任を負っていません。このモデルでは、従業員は最終的に、福利厚生(税負担の軽減、医療、その他の労働者保護など)と潜在的な救済モデルの両方に伴う雇用のリスクを負うことになります。

3. ヘルスケア

ヘルスケア分野で適用されている AI システムのほとんどは、大規模なデータベースに依存しています。これらの AI システムは、さまざまな複雑な統計モデルと機械学習技術を通じて収集した膨大なデータからさまざまな重要な情報を自動的に抽出します。

電子健康記録 (EHR)、臨床および医療データベース、家電製品やアプリからアップロードされた健康データなど、すでに使用されている (そして増え続けている) 医療データのソースは、医療を改善する可能性を秘めた AI システムですでに大量に使用されています。

臨床診断、患者ケア、投薬など、医薬品の製造、組織管理、医療保険情報のやり取りなど、これらの AI システムは医療従事者の業務に大きく貢献しています。

AI は医療研究やヘルスケアにどのように統合されるのでしょうか?

AI システムを医療研究に統合すると、非常に魅力的な応用の可能性が生まれます。これにより、これらの疾患の病理をより深く理解し、より多くの新しい治療法を開発し、より正確な医療診断を達成し、さらには個人に合わせた特別な医薬品を製造することが可能になります。

しかし、AI を医療分野に適用する際の現在の制限や偏見を考えると、これらの応用展望の実現が妨げられる可能性があり、研究者はこの最先端技術をより慎重に探求する必要があります。

現在、AI技術を医療分野に適用する際の限界としては、特定の少数派グループをカバーしていない不完全または不正確な研究データなどが挙げられます。さらに、複雑な医療補助金優遇制度、特に米国の健康保険制度も、AI医療技術の応用をある程度妨げることになるだろう。簡単な例を挙げると、現在の医療費補助制度の一部は、特定の種類の医薬品の開発をより支援するもの、または個別の治療計画をより補助する傾向にあるものとなるでしょう。

医学研究データは客観的かつ普遍的な特性を示すことが多いのですが、実際の応用においては、こうした研究の結論は一方的かつ一時的であり、特定のグループや疾患のみを対象としているように見えることがよくあります。これらの「一方的な」データに基づいて AI システムによって分析および確立されたモデルは、誤った推測につながったり、確立したり、導き出したりする可能性があります。

幸いなことに、このようなエラーは回避できます。 AIシステムによって収集されたデータに上記のような欠陥がない場合(これが保証できると仮定)、またはAIシステムが使用するデータフレームワークがランダム化比較試験(RCT)やその他の公開医療データベースのようにこれらの問題を自ら修正する能力を持ち、固有のエラーやバイアスを軽減できる場合、重大なエラーの発生を効果的に回避できます。

これらのエラーが無視できるほど小さいと仮定すると、AI システムを医療および健康研究および臨床実践センターに統合することで最も可能性の高い応用可能性の 1 つは、AI が医師の病気の診断を支援し、大量のデータから規則的なパターンを発見できるようにすることで、医師が体の奥深くに隠れている「巧妙な」病変を早期に発見できるようにすることです。

実際、AI システムは現在、白血病を含むいくつかの病気を診断できます。検査や臨床ケアの段階では、AI システムによって誤診を減らしたり、場合によっては予防したりできる可能性があります。誤診は致命的となる可能性があることに注意する必要があるため、AI 支援診断技術の価値は明らかです。

この点で、AI システムは症状の診断と確定においてますます重要な役割を果たしています。しかし、だからこそ研究者は、AI が誤った推測をして「正常」や「平均的」といった健康状態の説明を推論する状況を避けるよう注意しなければならないのです。

同様に、AI が病気を誤診した場合に何が起こるかを想像するには、1973 年以前の米国の歴史を振り返るだけで十分です。アメリカ精神医学会が権威ある『精神障害の診断と統計のマニュアル』に同性愛を精神疾患として含めたため、悲劇は避けられなかった。

同様に、AI システムを患者ケアに直接適用する場合、AI システムは診断や臨床管理のあらゆる側面に関与することになり、介護者と患者が分離されることも多いため、AI の「専門知識」の限界を適切に明確にすることが重要です。

人間の外科医は、職に就く前にまず医科大学に通います。厳しい審査に合格して初めて、彼らの医療技術は世界に認められるのです。しかし、どうすれば「学位」を持つ有名な人間の医師を補佐したり、あるいはその医師に代わったりできる優れた AI 医師を作り出すことができるのでしょうか?

このような AI 医療システムは、誤診や診断の偏りのない、絶対的に正確な専門家レベルの権威を持つ必要があることを意味します。このレベルの信頼は、これらの AI システムが工場から出荷される前にその能力が評価される点でも、限界をテストする点でも、監視が緩くなることを意味します。これにより、医療倫理の枠組みで現在カバーされていない新たな倫理的問題が生じます。

また、こうしたAI医療システムが医療保険分野のどこに導入され、誰が恩恵を受けるのかといった問題にも注目する必要がある。医療をすべての人が利用しやすく、手頃な価格にすることが本当に必要である一方で、健康保険や医療データへのアクセスが公平に分配されておらず、貧困層、非白人、女性が不利な立場に置かれていることを示す証拠は数多くあります。

AI システムを医療システムに統合すると、こうした体系的な不平等を根絶するどころか、むしろこれらの問題の深刻さが増幅される可能性があります。 AI システムは、幅広い層の人々に利益をもたらすカスタマイズされたケアを可能にする一方で、見落とされがちな、十分なサービスを受けられない外れグループを除外するように意図的に訓練することもできます。

これらのグループが適切に考慮されない場合、AI システムによって構築される予測モデルに影響が及ぶことになります。 AI予測モデルは、そのようなAIシステムにアクセスできる特権階級がアップロードした健康データによって絶えず強化され、富裕層の「健康状態」に関するフィードバックのみを効果的に提供できるようになり、最終的には「周縁集団」を完全に排除する健康と病気の総合的な認知モデルが構築されることになる。

現在の米国の医療財政の混乱を考えると、こうした懸念は確かにもっと注目する価値がある。このような混乱が過去に医療技術の統合に影響を与えたのと同様に、将来的には AI 医療システムのレイアウトと有効性にも必然的に影響を与えるでしょう。

このような考慮に基づき、AI医療システムの継続的な開発が推進される一方で、AI医療システムのコストを削減するための取り組みも継続的に行われています。これにより、利害関係者(政治家、保険会社、医療機関、製薬会社、雇用主など)は、モデル開発と医療における経済的利益をより適切に保護するために、大規模な健康データの収集と AI システムの開発に賭けるようになります。

しかし、これらの情報技術や AI システムを病院やその他の医療システムに統合するために必要な重要なトレーニング、リソース、継続的なメンテナンスは、必ずしもサポートまたは資金提供されているわけではありません。この状況は、実際には技術リソースと技術能力の不均等な配分につながっています。

AI のトレーニングに必要なデータ収集と患者の観察は、個人のプライバシーにどのような影響を与えるでしょうか?

AI システムはデータ量に極度に依存しており、症例観察も必要であるため、当然、患者のプライバシー、機密性、セキュリティ保護などの緊急の問題が生じます。

現在、AI 医療システムに対する高いパフォーマンスの期待を実現するには、さまざまなデバイス、プラットフォーム、インターネットを通じて大量の患者データを継続的に取得する必要があります。このプロセスは、必然的に、利益によって推進される並外れた監視行動に従事する一部の人々または組織が関与します。

同時に、同型暗号化、差別的なプライバシー、確率的プライバシーなどの技術は、これらの混oticとした現象に対処するための新しい希望をもたらします。 AIシステムは、データを「検索」せずに直接「呼び出す」ことができます。これらの新しい技術はまだ研究開発の初期段階にあり、一般的なアプリケーションさえ開発されていませんが、アプリケーションの見通しを奨励することを示しています。

さらに、米国政府によるエビデンスに基づいた医療の最近の促進と、サービス料から治療料への手頃な価格のケア法の変更により、規制行動と敏感な健康データの消費に関与する経済的利益がますます深刻になっています。

保険会社に関しては、AIシステムの導入により、クロスサブシディスキームの合理性を検証するための圧力も増加しています。

たとえば、米国政府は2008年に遺伝情報の非差別法を制定しましたが、保険会社は保険階層管理の必要性のために遺伝的リスク情報の取得にますます関心を持っています。実際、差別的な価格設定は現在、データ分析プロバイダーの間で一般的な業界の実践となっており、既存の不平等をさらに統合および悪化させています。

さらに、AIシステムが必要なデータを取得できるようにする「スマートデバイス」およびその他の接続されたセンサーは、追跡と監視をユビキタスにしました。

AIシステムは健康および家電製品にますます統合されているため、患者がセグメント化されたデータに基づいて再定義されるリスク、または代理データによって予測されるアイデンティティ、病気、およびその他の健康情報を持っているリスクが増加しています。

さらに、これらのデータ収集デバイスを駆動するソフトウェアは、多くの場合、オープンソースではなく非公開になります(外部レビューや監査の対象ではありません)。米国政府は最近、デジタルミレニアム著作権法で関連する規定を免除し、外部の医療施設の規範を検討することを可能にしている法令に署名しましたが、おそらくこの免除の対象ではない内部医療施設をレビューすることはおそらくより重要です。

一般に、業界の専門家は、IoTデバイスにネットワーキングテクノロジーを展開するという重大なセキュリティリスクについて警告しています。その多くは、医療機器のセキュリティ問題を目的としています。

AIは患者と健康保険プロバイダーにどのような影響を与えますか?

実現された、または実現されると予想されるAI技術は、医療システムの構築に広範囲に影響を及ぼし、ケアを必要とする患者や身体的状態が弱い患者にとっても非常に重要です。

人々はAIシステムについて多くの美しいアイデアを持っており、看護作業の仲介者としての彼らに希望を固定し、将来の介護者の仕事を完全に置き換えるかもしれないと信じています。このシフトは有望で、費用対効果が高く、効率的であり、患者とその医師または他の介護者との関係とその仕事の関係を改善する可能性があります。

ロボット外科医、仮想バトラー、コンパニオンロボットなど、人間のケア作業を交換または支援するAIシステムの可能性を示す多くの例があります。これらの例は、プロキシケアとコンパニオンケアの社会的意義を非人間の機械に置き換えることができるかどうかなど、いくつかの議論を徐々に引き起こしましたか?機械が人間の労働に取って代わるとき、彼らは人間の専門知識を高めるだけでなく、真に独立することもできますか?マシンが患者を「ケア」する能力があると思うとき、それはどのような「ケア」能力を持っていますか? 「看護」という言葉をどのように定義しますか?これらのことは、患者の権利の観点から考慮されていると考えていますか?

現在、コンパニオンロボットは人間の看護作業に取って代わることで明らかな結果を達成していませんが、AI主導のアプリと接続されたデバイスの見通しは、患者が自分の健康管理の制御を取り戻すことが日々増加しています。

人間とAIの間のこの種の直接的な相互作用は、実際には両刃の剣です。一方では、患者がより速く回復し、自分の状態をよりよく理解するのに役立ちます。一方、この変更には、より多くのリスクを冒す必要もあります。これらのリスクには、患者を誤解させ、受け取る可能性のある情報の質と正確性に影響を与える可能性があります。これは、米国連邦取引委員会(FTC)が近年通信したという懸念です。

さらに、これらのAI装備のアプリは、医療従事者が元々患者自身に耐える必要がある責任を転送することもできますが、これは患者にとって良いニュースではないかもしれません。

それで、どのような患者が、まだ最初に改善されているこれらのAI医療技術の利点を享受できるでしょうか?標準以下のヘルスケアを受ける独自の個人データを管理および維持する能力が整っていない患者はいますか?

さらに、AIテクノロジーを装備したアプリケーションの設計者と開発者は、この社会的進化のプロセスでどのような新しい役割を果たしていますか?どのような新しい責任を想定する必要がありますか?

常に嵐の最前線にある医療倫理は、これらのユニークな新しいエンジニアリング技術キャリアにどのように統合されますか?

4。道徳的責任

AIシステムの展開は、新しい責任を引き起こすだけでなく、職業倫理、研究倫理、さらには公共安全評価などの既存の分野にも挑戦します。

倫理とAIシステムの最近の議論は、「特異点」の出現や総総合の発展など、将来的に多く出現する可能性のあるAIシステムに優先順位を付ける傾向がありました。

つまり、この議論はしばしば、短期的または中期的にAIシステムの倫理的影響に焦点を合わせることができません。たとえば、現在使用されているタスクベースのAIシステムの多数が新たな課題を引き起こしたり、不平等を悪化させたり、根本的に権利メカニズムを変更したりする可能性があります。

現代のAIシステムは、さまざまな活動を実行することができ、そのような技術は、さまざまな暗黙的で明示的な結果をもたらすことができるため、従来の倫理的枠組みに新たな課題をもたらす可能性があります。 AIシステムが人間社会に展開されると、予測不可能な相互作用と結果につながる可能性があります。

AIテクノロジーが、特に既に疎外されたグループに害を及ぼさないようにするために、緊急に対処する必要がある重要な問題があり、リソースの割り当てと、電力と情報を集中または再構築する可能性の観点から。

意思決定をAIにどのように権限を与えたり委任したりするにはどうすればよいですか?

AIシステムを社会的および経済的分野に統合すると、社会問題をAIが解決できる技術的な問題に変える必要があります。このシフトは、AIシステムが交換する既存のシステムよりもエラーが少ないという保証を提供しません。ライアン・カロは、一般に、AIシステム(自動運転車など)が人間よりも間違いが少ないと人々は想定していると指摘しています。実際はそうではありません。洗練された低いAIシステムは、人間が犯さない新しい種類の間違いを必然的に行います。

多くの分野では、倫理的枠組みでは、医療記録、弁護士のケースファイル、研究者の機関審査委員会への提出などの記録の作成がしばしば必要です。さらに、患者、クライアント、または不当に扱われていると感じている他の人には、救済メカニズムが整っています。

現代のAIシステムは、技術的に不可能であるか、設計者がそのような記録やメカニズムを考慮しなかったため、そのような記録や修復メカニズムを提供できないことがよくあります。

これは、影響を受ける特定のグループまたは個人が、AIまたは他の予測システムの決定をテストまたは挑戦することができないことが多いことを意味します。これにより、さまざまな形態のパワーの非対称性が悪化します。電力不平等は非常に重要な倫理的問題です。

影響を受けた個人がそのような自動化された決定を検討、挑戦、または控訴することができない場合、彼らは比較的無力な位置に置かれます。

リスクは、AIシステムが脆弱なグループの力を弱めるだけでなく、倫理的行動を定義するためのより多くの力を設計者に与えることです。この力は、非常に微妙な形で現れることがあります。たとえば、さまざまな自動化されたシステムが特定の方向に特定の個人に影響を与えたり「微調整」するために使用され、意思決定または支配的な役割は、そのようなシステムから設計、展開、利益を設計する当事者によって主に演じられます。

上記の不均衡を修正するなどの目標を達成するためにAIシステムをゼロから構築したい場合、これは強度のギャップによって制限されます。 AIシステムの構築と維持には、大量のコンピューティングリソースと大量のデータが必要です。膨大な量のデータとコンピューティングリソースを持っている企業は、そのようなリソースを欠いている企業よりも戦略的な利点があります。

さまざまな既存の産業におけるAIに関連する倫理的問題にどのように対処しますか?

AIシステムは、さまざまな業界の設定(医学、法律、金融など)により深く統合されるようになると、さまざまな産業にまたがる新しい倫理的ジレンマにも直面します。

たとえば、ヘルスケアの設定でAIシステムを使用すると、医療専門家の倫理規範に囲まれたコアバリューに挑戦します(たとえば、機密性、ケアの継続性、利益相反の回避、および通知される権利について)。

ヘルスケア業界のさまざまな利害関係者がさまざまなAI製品とサービスを開始しました。これらのコアバリューへの課題は、新しい予期せぬ方法で自分自身を提示する場合があります。

医師が、特定の薬物の処方に既得権益を持つ製薬会社の薬物試験データを使用して訓練されたAI診断装置を使用する場合、医師は利益相反を避けるために宣誓をどのように守るべきですか?

これは仮説的なシナリオですが、倫理の専門的なコードを修正および更新する過程で対処しなければならないとげのある問題を強調しています。

同様に、AIの開発とメンテナンスの管理を担当する専門家協会は、対応する手段を講じることを検討する必要があります。たとえば、人工知能協会(AAAI)は関連する倫理コードを開発する必要がありますが、コンピューティング機械協会(ACM)と電気電子エンジニア研究所(IEEE)は、関連する倫理コードを真剣に修正する必要があります。既存のACMおよびIEEE倫理規範は20年以上前のものであり、言うまでもなく、人間の機関、プライバシー、セキュリティに関連する中核的な問題に対処できないだけでなく、AIやその他の自動意思決定システムから生じる可能性のある害を防ぐこともできません。 AIテクノロジーが社会の重要な分野にさらに統合されるにつれて、これはますます重要になっています。

より多くの高等教育機関は、技術的および科学的科目の教育における職業倫理の重要性を強調し始めていますが、これらの努力はまだ初期段階にあり、さらなる拡大の余地があります。しかし、公民権、市民の​​自由、倫理的慣行などの分野の知識は、学生が卒業したときに習得するための要件になっていません。また、医学の倫理基準の違反は医療特権の喪失などの罰則を課している一方で、これはコンピューターサイエンスや他の多くの関連分野には適用されないことも注目に値します。

ほとんどのコンピューター科学者がACMまたはIEEE標準のコアコンテンツに精通していることは明らかではありません。また、雇用主が他のインセンティブやプレッシャーのために、そのような拘束力のない規制を遵守しないことを選択するかどうかは明らかでもありません。したがって、実用的な観点から、倫理的フレームワークを単純に書き換えて更新することに加えて、より広範なインセンティブメカニズムに焦点を当て、倫理基準へのコンプライアンスが後付けではなく、関連する専門分野とAIの分野での学習と実践の不可解な要素に注意を払う必要がある中核的な問題を確保する必要があります。

提案を説明してください

以下に、上記の推奨事項の背後にある理論的根拠についてさらに詳しく説明します。

1. AIの開発と展開に必要なリソースを多様化し、拡大します。これは、データセット、コンピューティングリソース、教育、トレーニングへのアクセスなど、そのような開発に参加する機会の拡大を含む。現在、そのようなアクセスが不足している集団に特に注意が払われています。

AI Nowの専門家ワークショップで多くの人々が言及したように、AIシステムを開発およびトレーニングするこれらの方法は高価であり、いくつかの大企業に限定されています。または、単に言えば、DIY AIは多くのリソースなしで不可能です。 AIモデルのトレーニングには、多くのデータが必要です。また、膨大なコンピューティングパワーも必要です。これは高価です。これにより、基礎研究でさえ、その使用を支払う余裕がある企業にとっても基礎研究が制限されているため、AIシステムの民主化された開発がさまざまな人口目標に役立つ可能性が制限されます。基本的なインフラストラクチャに投資し、適切なトレーニングデータを使用すると、競争の場を平準化するのに役立ちます。同様に、既存の産業や機関内の開発プロセスと設計プロセスを多様な内部分野や外部解説に開放することは、多様な環境のニーズにより適切に対応し、反映するAIシステムの開発に役立ちます。

2.公正な労働慣行を結晶化して、AI管理が職場で展開されたときに発生する構造的な変化に対応する定義とフレームワークをアップグレードします。同時に、繰り返しの仕事の自動化と将来の変化する労働と雇用の状況に適応するために、代替収入と資源分布、教育、再訓練モデルを研究します。

AI Nowの専門家セミナーで、オバマ大統領のチーフエコノミストであるジェイソンファーマンは、米国の雇用の83%が1時間あたり20ドル未満の雇用が自動化から深刻な圧力に直面すると指摘しました。 1時間あたり20ドルから40ドルを支払う中所得の仕事の場合、割合は31%に達します。これは、労働市場の大きな変化であり、永久に失業者のクラスの出現につながる可能性があります。労働市場におけるAIシステムの効率性が公共の不安や教育などの重要な社会制度の解体につながることを保証するために(教育はもはや雇用へのより良い道と見なされない可能性があります)、オートメーションの導入に対処するための代替リソース配分方法およびその他のモデルは、この大規模なシフトが発生するために徹底的に調査する必要があります。

「労働者の交換」に加えて、AIシステムは労働市場に他の複数の影響を与えます。たとえば、彼らは権力関係、雇用の期待、および仕事そのものの役割を変えます。これらの変更はすでに労働者に大きな影響を与えているため、AIシステムを導入する際に公正および不公平な慣行を明確にする方法を検討する際には、これらの影響を理解することが重要です。たとえば、企業が管理として効果的に機能するAIシステムを開発した場合、それはテクノロジーサービス会社と見なされる可能性があり、雇用主とは異なり、その従業員は既存の法律で保護されない可能性があります。

3.設計および展開段階でのAIシステムの精度と公平性を測定および評価する方法の研究開発をサポートします。同様に、AIシステムによる自動意思決定に起因するエラーと害の通知、修正、および緩和の説明責任など、AIのエラーと害を測定および対処する方法の開発に関する研究をサポートします。これらのアプローチは、自動化された意思決定の影響を受けた人々への通知を優先し、誤ったまたは有害な判断に挑戦する方法を開発する必要があります。

AIおよび予測システムは、人々が機会を得るか失うかどうかをますます判断します。多くの場合、人々は、それが人間ではなく機械であり、人生を変える決定を下していることに気づきません。たとえ彼らが知っていても、誤解に挑戦したり、有害な決定を拒否する標準的なプロセスはありません。 AIシステムが重要な決定を下すためにますます使用される環境で基本的な権利と責任が尊重されるように、研究および技術のプロトタイピングに投資する必要があります。

4.コンピューター詐欺と虐待法もデジタルミレニアム著作権法も、AI研究の責任を制限することを意図していないことを明確にします。特に公平性や差別などの主要な社会的懸念に関して、公的機関および民間機関の決定に対するAIシステムの影響を調査、測定、測定、評価するために必要な研究を実施するために、研究者は、幅広いドメインで、幅広い異なる方法でシステムをテストすることを明示的に許可する必要があります。ただし、コンピューター詐欺および虐待法(CFAA)やデジタルミレニアム著作権法(DMCA)などの特定の米国の法律は、インターネット上で公開可能なものでさえ、「不正な」コンピューターシステムと対話することを違法にし、そのような研究を制限または禁止する可能性があります。これらの法律は、この重要な研究を促進する相互作用を明示的に許可するように明確にするか、修正する必要があります。

5.実際の環境における社会経済生活に対するAIシステムの影響の強力な評価と評価方法に関する基礎研究をサポートします。政府機関と協力して、これらの新しい技術を調査、規制、および執行能力に統合します。

現在、AIシステムの社会経済的影響を評価および理解するための厳しいアプローチがありません。これは、AIシステムが既存の社会経済分野に統合され、その影響を測定または正確に計算することなく、新製品や環境に展開されることを意味します。この状況は、結果を記録せずに実験を実施することに似ています。 AIシステムの利点を確実に実現するために、協調した研究は、その影響を理解するために厳しい方法論を開発する必要があります。このような研究とその結果は、早期警告システムに例えることができます。

6.自動化された意思決定アプリケーションとAIシステムの影響を受けたコミュニティの代表者およびコミュニティのメンバーと協力して、これらの個人とそのようなシステムを共同開発および展開する際に説明責任のあるAIを共同設計します

多くの場合、AIシステムの影響を受ける人々は、AIシステムのコンテキストと結果について最も権威ある専門家になります。特に、AI分野の多様性の欠如を考えると、AIシステムの展開の影響を受ける人々は、実際にフィードバックと設計の方向性を提供することに従事しています。フィードバックメカニズムからのこれらの提案は、AIシステムの開発とより広範なポリシーフレームワークの開発に直接影響を与える可能性があります。

7. AI開発者と研究者の多様性を高めるための行動を強化し、すべての視点、コンテキスト、および懲戒的背景をAIシステムの開発に拡大および統合します。 AI分野は、コンピューティング、社会科学、人文科学を組み合わせて、複数の視点に対するAIシステムの影響に関する学際的なAI研究を支援および促進する必要があります。

フィールドとしてのコンピューターサイエンスには多様性がありません。特に女性の開業医は深刻な不足があり、AIでは状況がさらに悪化しています。たとえば、一部のAIアカデミックラボは女性によって運営されていますが、フィールドの主要な年次集会の1つである最近のニューラル情報処理システム会議の参加者の13.7%のみが女性でした。多様性を欠くサークルは、その一部ではない人々のニーズと懸念を考慮する可能性が低くなります。 AIを展開する社会経済機関の中心になり、AI開発がこれらの重要な視点を反映しているため、これらのニーズと懸念を理解することが重要です。 AIを発達させる人口の多様性に焦点を当てることが重要です。これには、保護グループの性別や表現に加えて、コンピューターサイエンスを超えた分野の多様性や、関連する社会経済的背景から学んだ専門知識に依存する開発慣行を構築することが重要です。

コンピューターサイエンス以外の社会経済的分野およびコンピューターサイエンス内のAIのサブフィールドでのAIの影響を徹底的に評価するには、この専門知識の多くが必要です。薬、労働市場、オンライン広告など、AIが統合され、使用されている多くのコンテキストがあるため、これらはそれ自体が研究のための豊富な領域です。 AIインパクト評価のための厳密なプロセスを真に開発するには、学際的なコラボレーションと新しい研究の方向性と分野の確立が必要になります。

8。人工知能の進歩協会(AAAI)、コンピューティング機械協会(ACM)、電気および電子機器エンジニア協会(IEEE)などの専門組織と協力して、社会経済セクター全体でAIおよび自動化システムを展開する複雑さをよりよく反映する倫理コードを更新(または作成)します。教育、市民権のコース、市民の自由、倫理のこれらの変化を反映して、コンピューターサイエンスを習得したい人なら誰でも提供されています。同様に、更新された専門的な倫理コードは、医師や病院労働者に適用されるものなど、AIシステムを導入する専門家を支配します。

医学や法律などの職業では、専門家の行動は、許容可能で容認できない行動を制御する倫理的コードによって支配されています。 ACMやIEEEなどの専門組織には倫理コードがありますが、これらのコードは時代遅れであり、複雑な社会経済的環境でAIシステムの使用によってもたらされる特定の微妙な課題に対処するには不十分です。医師は患者に対する行動を支配する専門的な倫理を順守しますが、医師が患者を診断および治療するのに役立つAIシステムの発達は、既存の専門的な倫理規範が常に対処するとは限らない倫理的課題を提起します。 AIシステムのビルダーが使用の悪影響に不釣り合いに苦しむ人々に対して抱えている責任を反映するために、専門のコードとコンピューターサイエンストレーニングを更新する必要があります。 AIが人間の意思決定を強化するために使用される場合、専門的な倫理コードには、AIシステムが利益相反の対象となる場合、責任を特定するための保護を含める必要があります。

今日頭条の青雲計画と百家曼の百+計画の受賞者、2019年百度デジタル著者オブザイヤー、百家曼テクノロジー分野最人気著者、2019年捜狗テクノロジー文化著者、2021年百家曼季刊影響力のあるクリエイターとして、2013年捜狐最優秀業界メディア人、2015年中国ニューメディア起業家コンテスト北京3位、2015年光芒体験賞、2015年中国ニューメディア起業家コンテスト決勝3位、2018年百度ダイナミック年間有力セレブなど、多数の賞を受賞しています。

<<:  Google が目指す新しいモデルはどれほど難しいのでしょうか?

>>:  国慶節の7日間の連休期間中の興行収入は前年比15.30%減。郭静明はトイレに隠れて泣かなければならなかったのか? !

推薦する

水分摂取量を増やす7つの方法

人体の60%以上は水で構成されているため、水分補給は不可欠です。水分摂取量が排出量より少ない場合、脱...

蛇年に関する興味深い質問です! 「蛇」も実を結ぶのでしょうか?実は、それは…

レビュー専門家:北京林業大学准教授 董文凡編集者注蛇年がやってきました。あなたはヘビについてどれくら...

魏建軍は15日間で2人の上級幹部を引き抜き、「消防チーム」を結成した! WEYは5ヶ月で26.88%しか達成できなかった

Haval H8は月間128台を販売し、WEY P8は月間503台を販売し、WEYは5か月間でわずか...

Google マップの超重アップデート: オフライン マップ

Googleマップは多くの人に愛されている地図サービスです(価格も高めです)。本日、多くの長所と短所...

春タケノコのベーコン炒め

肉料理は中国のキッチンで常にテーマとなっており、調理法は無限にあります。揚げる、炒める、揚げるなど、...

Android スマートフォンは、なぜ使っているうちにどんどん遅くなってしまうのでしょうか?

2008年に最初のAndroidスマートフォンが発売されて以来、操作性という点ではずっとiOSの影...

ナスとナマズのシチュー

ナマズとナスの煮込みは中国東北地方でよく知られている料理です。ナマズとナスの煮込みは老人を満腹で死な...

光の中でのくしゃみは脳機能障害によって引き起こされる

あなたの周りにもそんな友達はいるのだろうか。あるいはあなたもその一人かもしれません。つまり、太陽から...

黄耆桂枝煎じ液の効果は何ですか?

人々の生活水準が向上し続けるにつれて、多くの人々は生活の質を追求するようになり、売れ筋の食品に限定さ...

適切なテレビゲームを設計するにはどうすればよいでしょうか?

私は半年前に初めてテレビゲーム業界に入りましたが、それ以前は3年間モバイルゲームに携わっていました...

宇宙の「体重計」:微小重力下で体重を計測する方法とは?

宇宙探査の旅の間、宇宙飛行士の健康状態の監視は特に重要です。体重は健康状態を評価するための重要な指標...

心筋梗塞による突然死まで残り120分、私たちに他に何ができるでしょうか?

誰もがもう少し応急処置の知識を身に付けられるよう願っていますが、それ以上に誰も応急処置を必要としない...

アリはフェミニズムの支持者ですか?実際のアリ社会はどのようなものでしょうか?

アリは地球上で最も魅力的な社会的な生物群の一つであり、人間社会の比喩となっています。人々はアリから人...

「魔法のダイエット薬」は実際に国を支えることができる。減量の成功率はどのくらいかご存知ですか?

奇跡のダイエット薬は国全体を支えています。2023年には売上高が344億ドルに急上昇し、純利益は12...

わかめは生で食べられますか?

昆布を食べたことがある友達もいるかもしれません。実は、この野菜は体にとても良いのです。昆布にはカルシ...