新興テクノロジー

AI時代に適応し、主体性を活かすための5つの戦略

出版 · 最新情報
AIの重要性が高まるにつれ、私たち人間が主体性と意思決定能力を維持するための対策が求められています。

AIの重要性が高まるにつれ、私たち人間が主体性と意思決定能力を維持するための対策が求められています。 Image: Getty Images/iStockphoto

Roger Spitz
President & CEO, Disruptive Futures Institute
  • AI(人工知能)のユースケースが拡大するにつれ、人間の主体性が損なわれ、意思決定が機械に委ねられるという現実に直面することになります。
  • このような事態を防ぐために、私たち一人ひとりが自らの生活の中で、自分の主体性と意思決定能力を保持するための措置を講じることが必要です。
  • 既知と未知の「複雑性の5要素」について考え抜くことで、AI時代にしっかりと備えることができるでしょう。

今日、AI(人工知能)は、あらゆる質問に答えてくれるように思えます。ただし、AIがもたらす可能性のある多大な恩恵は、実存的なリスクと向かい合わせです。人類が滅亡すること以上に、これらのリスクは私たちの価値観や自由、さらには文明の軌跡をも揺るがします。

人間による判断からアルゴリズムによる制御への移行が徐々に増え、私たちの生活にさりげなく浸透してきました。ニュースフィードから仕事の将来性、信念から忠誠心に至るまで、あらゆる意思決定に影響を及ぼしています。こうした主体性や選択肢の喪失は、少しずつ、そして多くの場合目に見えない形で進行しているため、ステレオタイプな終末のシナリオよりもはるかに注意しなければなりません。

進化論的な圧力が優先するのは適合性。私たちは、より適合性の高い意思決定を行うよう迫られています。では、どうすれば良いのでしょうか。

「複雑性の5要素」:知らないことを知る

人間とAIのこれからの関係を予測するには、さまざまなタイプの不確実性を理解する必要があります。

既知の既知:「太陽は朝に昇り、夜に沈む」のように、私たちが知っていること。これについては、米国の作家・政策アナリストのミシェル・ワッカー氏の「グレー・サイ(灰色のサイ)」の定義(普段はおとなしいが暴れ出すと手がつけられないことから潜在的リスクを指す)を使用します。灰色のサイには不確実性はありません。確実な事柄ですが、未知として扱うことがあるかもしれません。

未知の既知:知っているつもりでも、実際に起きてから初めて理解していないことが分かるもの。例えば、海水の水温と酸性度の上昇は、クラゲの個体数増加にとって絶好の条件をもたらします。その結果、世界中の原子力発電所の冷却システムにクラゲが詰まり、停止を余儀なくされました。このように、理解しているつもりの状況でも、小さな変化がより大きな予測しにくい影響をもたらすことで、事態が複雑化することがあります。未来科学における「ポストノーマルタイムズ」理論では、このような「知っていたつもりだが、実は知らなかった」状況を「ブラック・ジェリーフィッシュ(黒いクラゲ)」と呼んでいます。

既知の未知:「知らない」と分かっていること。新しい病気、気候変動の影響、大規模な人口移動などがこれにあたります。これらは目に見えて発生の可能性が非常に高い事象ですが、それを認識する人はほとんどいません。私たちは、これらの既知の未知を、コラプソノミクス研究所(崩壊経済研究所)の用語に基づいて「ブラック・エレファント(黒い象)」と呼びます。

未知の未知:私たちが知らないということを知らないことです。このような予測不可能な例外については、米国の作家、ナシーム・ニコラス・タレブ氏の「ブラック・スワン」という概念を用います。

バタフライ効果:優雅な蝶の羽ばたきが、これらの動物全てを呼び寄せることがあり得ます。気象学者エドワード・ローレンツ博士が定義した「バタフライ効果(バタフライ・エフェクト)」とは、1羽の蝶の羽ばたきから、別の場所で竜巻が発生するように、小さな変化が予測不可能な重大な結果をもたらすことを表します。

これらの不確実性の度合いには、共通した特徴があります。知らないこと、つまり証拠が存在しないからといって、存在しないということの証拠にはならないのです。

AIの「複雑性の5要素」への対応

サファリの「ビッグ5」(バッファロー、ヒョウ、ライオン、象、サイ)は、その強さと大きさゆえに危険だとされています。今日のディスラプティブ(創造的破壊)な世界において、AIの「コンプレックス5(複雑性の5要素)」は、大きなディスラプター(破壊的イノベーター)を「狩る」最も重要な5つの動物、すなわちサイ、クラゲ、白鳥、象、蝶なのです。

極端な二分法の先にあるAIの未来を見ることで、私たちは不確実性のスペクトラムに合わせて対応し、AI時代に適応するための戦略を策定することができるでしょう。

Understanding AI's
AIの「複雑性の5要素」 Image: ディスラプティブ・フューチャーズ・インスティテュート

1. 突進するサイに注意

ワッカー氏の「灰色のサイ」を想像してみてください。すでに「突進」してきているにもかかわらず、私たちが無視している、有力で、目に見えて影響力の大きいAIの成果とは何でしょうか。

偽情報:AIを活用したディープフェイクや誤情報が急速に拡大しており、事実や民主主義、メンタルヘルスを脅かしています。ブレグジット、最近の米国大統領選挙、そして新型コロナウイルス感染症のパンデミックはすでに、ソーシャルメディアが民主主義に与える影響を如実に示しています。

スキルとリスキリング:今日、日常的な認知作業は自動化されつつあります。狭義のAIはすでに厳密に定義されたタスクを得意とする驚異的な能力を持っており、専門的な分野では人間を凌駕しています。機械がすぐに模倣できないようなスキルを身につけるには、機械的な知識の伝達を、批判的思考や感情的知性のような人間中心の能力に置き換える必要があるでしょう。

灰色のサイへの対応は、決断が遅すぎて後手に回ることがよくあります。踏みにじられないためには、手遅れになってから慌てて対応するのではなく、影響を予測しておく必要があるでしょう。

2. クラゲに刺されないために

「ポストノーマルタイムズ」理論で使用される黒いクラゲは、潜在的な影響が大きいものの発生確率が低い隠れた事象を示します。初めは予測可能に見えるかもしれませんが、私たちの想像を超えた成長を遂げるのです。

インフォラプション(情報崩壊):情報の崩壊、つまりインフォラプションはどのような連鎖反応を引き起こすのでしょうか。 「大量偽情報兵器」が社会の結束を脅かすとはどういうことでしょうか。インフォラプションは将来の戦争における主要な武器となり、人類の未来を左右するかもしれません。

偏見の拡大:AIがもたらす偏見による差別の増幅は、社会全体に悪影響を及ぼす可能性があります。

AIとバイオテクノロジーの融合:AI、生物学、テクノロジーが交差することで、支配的な存在としての人間の地位を揺るがす可能性があります。サステナブルな人間性を定義するものとは何なのでしょうか。

インフォラプションは軍拡競争のようなものです。テクノロジーが不正確な情報や偏見を増幅させる中、私たちはそれに対抗するために同じくらい強力なツール(とマインドセット)を開発しなければなりません。

AIの「黒いクラゲ」に対応するには、反響がさらに連鎖し、取り返しがつかなくなる可能性について考え、雪だるま式に膨らむ影響について検討する必要があります。「これが予想以上に拡大したらどうなるか」、「他にどのような影響があるか」を問う必要があるのです。

3. 「部屋の中の象」に対処する

「黒い象」とは、明らかな脅威であると同時に、それを認めようとする人がほとんどいないものを指します。灰色のサイに似ているものの、今にも突進してきそうなサイとは違い、今のところ象は静かに立っています。黒い象を議論する際に意見が対立すれば、混乱と不作為につながりかねません。

教育の再構築:私たちの知識主導の教育モデルは、不安定に変化し続ける世界についていけない人々を大量に生み出すでしょう。現在のAIの議論は、教育を再構築する必要性を無視しています。AIの脅威はその存在そのものではなく、教育システムが適応できないことにあるのです。

意思決定スキルの低下:AIシステムに委ねることで、私たちの意思決定能力は低下し、自ら意思決定する習慣を失うことになります。私たちは、アルゴリズムが決定したことを押し付けられるようになるにつれて、主体性を発揮する機会を失っていくでしょう。

黒い象に対処するには、行動を起こし、ステークホルダーを調整し、複雑なシステム全体における変化を理解する必要があります。具体的な状況では、自分で責任を持って対応しましょう。黒い象に不意打ちを食らわないようにしてください。さもないと、灰色のサイに変身して突進してくるでしょう。

テクシステンシャリズムの時代:主体性の回復

今日、人類は技術的状況と実存的状況の両方に直面しており、もはやこれらを切り離すことはできません。私たちは、この現象を「技術(Technology)+実存主義(Existentialism)」の意味で「テクシステンシャリズム(技術実存主義)」と定義しています。

AIを通じて、テクノロジーは戦略的意思決定という、今までは人間のみが成し得ていた領域で私たちに課題を突き付けています。私たちが自由意志の限界を突き詰めた現在、テクノロジーは実存的次元に対峙しているのです。

ジャン=ポール・サルトルは、人間の条件を「実存は本質に先立つ」と力強く表現しました。つまり私たちの主体性は選択によって生まれるのです。しかし、テクノロジーが私たちに代わって結末を決定するならば、私たちの主体性は制限され、自ら選択できなくなる可能性があります。

テクシステンシャリズムとは、この哲学的視点を現代の技術至上主義的な環境における意味づけや意思決定に適用しようとする試みです。

人間に挑戦するために、機械が超知能になる必要はありません。今、私たちが直面している課題は、機械が有する計算合理性に対して、私たち自身の能力の本質を理解することです。

スキル低下の深刻さを過小評価すべきではありません。意思決定能力をアルゴリズムに委ねてしまうことで、信頼が依存へと容易に変化する可能性があるからです。

真の実存的リスクは、機械が世界を支配することではなく、その逆、つまり人間がまるで意思のない機械のように動き始め、今日の複雑な世界の点と点を結ぶことができなくなることです。

幼稚園の園庭から企業の役員室に至るまで、教育を根本から見直すことは、今や存在的な優先事項になっています。私たちは、直面する実存的リスクを解決するために、探究心、実験、失敗、創造性との新しい関係を築く必要があります。

4. ブラック・スワンに対するレジリエンス(強靭性)を高める

タレブ氏の「ブラック・スワン」とは、予測不可能にもかかわらず影響が非常に大きい事象のことです。問題なのは、私たちがこれらを知らないということを知らないことです。AIについても、ブラック・スワン的な希少事象や連鎖反応の暴走が起こる確率は計算できません。

汎用AI将来、どのような技術開発が考えられる(あるいは考えられない)でしょうか。汎用人工知能(AGI)の実現は本当に可能なのでしょうか。また、どのような影響があるでしょうか。

超知能AIシステム:私たちが作り出したものが、複合的な人間の知能を超えて優秀になり、制御できなくなった場合に何が起こるでしょうか。そうしたものが、人類の存続を脅かすような目標を追求する可能性はあるのでしょうか。

極端な壊滅的障害:互いに作用するAIシステムから生じる相互の影響は、取り返しのつかない深刻な結果を招く可能性があります。

ブラック・スワンへの対策としては、強靭な基盤を構築し、重大な影響を及ぼす稀な事象に注意を払うことなどが挙げられます。ブラック・スワンがどんなに予測不可能であっても、私たちはこの世界のランダム性に対する安全策を講じながら先回りすることができます。

AIが人間に何をするかではなく、人類がAIに対して何を選択するかを考えましょう。一見当たり前ではないことに目を向けましょう。ランダム性を受け入れましょう。現代世界が非常に稀有な出来事に支配されつつある今、認知バイアスに注意してください。ブラック・スワンが現れた時は、その打撃から立ち上がりましょう。

5. 「優雅な蝶」から予期せぬ事態を予測する

バタフライ効果そのものは限定的かもしれませんが、他の動物に変異する可能性があります。「複雑性の5要素」はどのように雪だるま式に膨らみ、破裂するのでしょうか。

システム的な混乱はバタフライ効果の温床となります。準備を怠れば、高い代償を払うことになるでしょう。食料からエネルギーに至るまで、私たちのグローバルなシステムは相互に依存しています。その影響がそれぞれ孤立していないように、AIのリスク評価と将来への備えに対するアプローチも孤立したものであってはなりません。

AIは急速に発展しており、適合性を維持するためのゴールポストは常に動いています。AIに関して私たちが今日知っていることは、明日には変わっているでしょう。

AIのバタフライ効果に対する最善の対応は、レジリエンスを高め、適応戦略を実行し、予期せぬ事態を想定することです。

このように、AIに「複雑性の5要素」を当てはめて評価することで、対策案を見出すことができます。不確実性の度合いを認識することで、さまざまな未知の未来や予期せぬ出来事に備えることができるのです。

Loading...
関連記事を読む
シェアする:
コンテンツ
「複雑性の5要素」:知らないことを知るAIの「複雑性の5要素」への対応1. 突進するサイに注意2. クラゲに刺されないために3. 「部屋の中の象」に対処するテクシステンシャリズムの時代:主体性の回復4. ブラック・スワンに対するレジリエンス(強靭性)を高める5. 「優雅な蝶」から予期せぬ事態を予測する

世界経済フォーラムについて

エンゲージメント

  • サインイン
  • パートナー(組織)について
  • 参加する(個人、組織)
  • プレスリリース登録
  • ニュースレター購読
  • 連絡先 (英語のみ)

リンク

言語

プライバシーポリシーと利用規約

サイトマップ

© 2024 世界経済フォーラム