AIが持つ真の可能性とは

AIは知能ではなく、予測です。

AIは知能ではなく、予測です。 Image: Unsplash/Lucas

Spencer Feingold
Digital Editor, World Economic Forum
シェアする:
A hand holding a looking glass by a lake
クラウドソース・イノベーション
参加する クラウドソーシングのデジタルプラットフォームで、スケール感のあるインパクトを提供します。
  • AIは、私たちの日常生活のあらゆる場面を一変する技術です。
  • しかし、AIとその潜在的な利用方法については、多くの誤解があるようです。
  • 世界経済フォーラムで、人工知能と機械学習の責任者を務めるケイ・ファース=バターフィールドは、AIの可能性への誇張は、AIが実際にできることについての誤解により生じていると話しています。

AI(人工知能)とは、大まかに言えば、人間の知能を必要とする作業を実行できる機械を開発・利用することに関する研究分野であり、技術の一種です。

AIは、顧客サービスのチャットボットの導入から、GPSや地図アプリケーションの強化まで、すでに多くの産業や社会の側面を変革しています。しかし、AIとその潜在的な利用法については、いくつかの誤解があるようです。

本稿では、世界経済フォーラムで、人工知能と機械学習の責任者を務めるケイ・ファース=バターフィールドが、AIの種類、機械学習の分野における重要な進展と応用、そしておそらく最も重要である、AIに関する一般的な誤解について詳しく解説します。

異なるAIの種類

AIは、いくつかの異なる機械学習モデルで構成されています。強化学習、教師あり学習、教師なし学習、コンピュータビジョン、自然言語処理、ディープラーニングなどが含まれますが、これらに限定されるものではありません。

すべての機械学習モデルは、統計的な予測を開発し提示しますが、データの使用と理解には違いがあります。例えば、ChatGPTは、AIを搭載したチャットボットで、文中の次の単語として最も可能性の高いものを予測することができます。多数の比較的正確な予測により、ChatGPTは首尾一貫したパラグラフを作成することができます。

AIに関する誤解

AIは知能ではなく、予測です。大規模な言語モデルによって、望まれる結果を正確に予測し、実行する機械の能力は向上しています。しかし、これを人間の知能と同一視するのは間違いでしょう。

機械学習システムを調べると明らかなのですが、機械は、ほとんどの場合、まだ一度に一つのタスクしかうまくこなすことができませません。このことは常識として知られていませんが、マルチタスクを軽々とこなすことができる人間の思考レベルとは異なるのです。人間は、一つの情報源から得た情報を、さまざまな方法で利用することができます。つまり、人間の知性は移ろいやすく、機械の知性はそうではないのです。

AIの最大の可能性

AIは、教育、ヘルスケア、気候変動との闘いなど、さまざまな分野で活躍する大きな可能性を秘めています。例えば、FireAIdはAIを搭載したコンピューターシステムで、山火事リスクマップを使って、季節の変動要因に基づく森林火災の可能性を予測します。また、山火事のリスクと深刻度を分析し、資源配分の判断に役立てます。


一方、ヘルスケアの分野では、よりパーソナルで効果的な予防、診断、治療を通じて患者ケアを向上させるためにAIが活用されています。効率性の向上により、医療費の削減にもつながっています。そして、AIは高齢者ケアを劇的に変化させ、理想的には改善させることができるとも期待されています。

誇張されているAIの潜在的インパクト

多くの場合、AIの可能性への誇張は、AIが実際にできることについての誤解により生じています。私たちは、沢山のエラーを起こすAI搭載マシンをまだ多く見ています。AIが人間の知能に完全に取って代わるということは考えにくいでしょう。

AIの普及を妨げるもう一つの要因は、AIシステムが代表的でないソースからデータを引き出しているという事実です。データの大半は、北米やヨーロッパの一部の人々によって作成されているため、AIシステムは、その世界観を反映するようになります。例えば、ChatGPTは、主にこれらの地域から書き言葉を引き出しています。一方、30億人近くの人々はまだインターネットに定期的にアクセスすることができず、データを作成していないのです。

AIを取り巻く最大のリスク

AIシステム は、極めて新しい技術です。企業や個人は、使用する前に十分に注意する必要があるでしょう。ユーザーは、AIシステムが責任を持って設計・開発され、十分にテストされているかどうかを常に確認する必要があります。自動車メーカーが、事前に厳密なテストを行わずに新車を発売することはないのと同じことです。

テストが行われておらず、開発が不十分のAIシステムを使用するリスクは、ブランド価値や評判を脅かすだけでなく、ユーザーを訴訟に巻き込むこともあります。例えば米国では、政府規制により、差別を行うAI搭載の採用ツールの使用について、企業が責任を負うことが明確になっています。

AIや高度なコンピューターシステムを取り巻くサステナビリティへの大きな懸念もあり、開発・運用には膨大な電力が使われます。すでに、情報通信技術エコシステム全体のカーボンフットプリントは、航空業界の燃料排出量に匹敵しているのです。

責任あるAI開発のためには

何よりもまず、私たちは、AIが問題解決やシステム改善に最適なツールであるかどうかを考える必要があります。もしAIが適切であれば、システムは慎重に開発され、一般に公開される前に十分なテストが行われるべきです。

また、法的規制にも留意し、官民一体となってAI活用のための適切なガードレールを整備する必要があります。


そして、ユーザーは、責任あるAIを実現するために開発されたさまざまなツールやリソースを利用する必要があるでしょう。

Loading...
このトピックに関する最新情報をお見逃しなく

無料アカウントを作成し、パーソナライズされたコンテンツコレクション(最新の出版物や分析が掲載)にアクセスしてください。

会員登録(無料)

ライセンスと転載

世界経済フォーラムの記事は、Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International Public Licenseに基づき、利用規約に従って転載することができます。

この記事は著者の意見を反映したものであり、世界経済フォーラムの主張によるものではありません。

シェアする:
World Economic Forum logo
グローバル・アジェンダ

アジェンダ ウィークリー

グローバル・アジェンダとなる、重要な課題のウィークリー・アップデート

今すぐ登録する

メールに記載されているリンクを使って、いつでも配信を停止することができます。 詳しくはこちらをご覧下さい。 プライバシー・ポリシー.

世界経済フォーラムについて

パートナーとメンバー

  • 参加する

言語

プライバシーポリシーと利用規約

© 2024 世界経済フォーラム