AI倫理実践のための12のステップガイド
組織がAI搭載システムを責任持って展開する最適な方法とは? Image: Pete Linforth on Pixabay
- AI(人工知能)を活用したサービスの利用はますます増えていますが、これらのシステムを責任持って展開するためのコンセンサスは、未だ得られていません。
- この問題に対応するため、リスク/ベネフィット評価枠組みの導入が求められています。
- このような枠組みの設計をめざす組織が、考慮すべき12の点をご紹介します。
AIはこの10年ほどで、第四次産業革命を推進するソフトウェアエンジンとして台頭してきました。AIは、すべての分野、国、そして、産業に影響を与える技術的パワーです。
AIを活用したサービスは、よりパーソナライズされた購買体験の創出、生産性の向上、農業の効率化などにおいて既に応用されています。この進歩は、注目に値すると同時に、独自の課題も生み出しています。様々な研究で実証されている通り、適切な監視が行われないと、AIは人間の偏見や差別を再現したり、悪化させたり、意図しない結果を招く可能性があります。これは、刑事司法、ヘルスケア、銀行、雇用などの、大きな責任を伴う分野にAIが導入される場合に、特に問題になります。
政策立案者や産業界の関係者の中で、AIに関連する機会とリスク、両方の認識は高まってきていますが、信頼できるAIシステムの展開を実現するために必要な、監視プロセスに関するコンセンサスは未だ得られていません。これは、EUの差別禁止法のような法律から、組織の一連のガイドラインに至るまで、さまざまなルールに対し、特定のAIシステムの動作が反していないかを確認することができるものです。
問題を難しくしている大きな要因は、深層学習システムの動作です。何億ものパラメータを含む可能性のあるニューラルネットワークを活用してパターンを分類すると、不透明で直感的ではない意思決定プロセスが生成されることがあります。バグや不整合の検出が非常に難しいのはこのためです。
AIシステムにおけるリスクの特定と軽減を目指す継続的な取り組み
これらの課題に対応し、AIのメリットをすべての人が享受できるようにするためには、AIシステムのリスクを特定し、軽減する、リスク/ベネフィット評価枠組みの導入が必要です。
これらの枠組みにより、特定のAIシステムのリスクを、評価基準と使用シナリオに基づいて特定し、監視し、軽減させることができます。これは、トレーニングデータセットを使ってシステムを訓練し、別のセットでテストをして平均的なケースのパフォーマンスを確認するという、現在業界で一般的に実践されている方法とは違ったアプローチです。
現在、このような枠組みを設計するための様々な取り組みが、各国政府および業界内で進められています。シンガポールは昨年、「モデルAIガバナンス枠組み」を導入。AIを責任持って展開することを目指す民間企業に対し、すぐに導入可能なガイダンスを提供しています。直近では、グーグルがAIシステムの内部監査のためのエンドツーエンドの枠組みを公開しました。
リスク/ベネフィット評価枠組みの設計における主な考慮事項
私たちは、健全なリスク/ベネフィット評価枠組みを通じて、監査可能なAIシステムの構築に関心のある組織を支援するため、既存の文献を基に、ガイドラインを共同設計しました。
1. AIを搭載したサービス導入の選択の正当化
AIを活用したサービスのリスクを減らす方法を検討する前に、それらを展開しようとする組織は、課せられた目的と、それが様々なステークホルダー(エンドユーザー、消費者、市民、社会全体など)にどのように利益をもたらすのかを明確に示す必要があります。
2. マルチステークホルダー・アプローチの採用
プロジェクトチームは、特定のプロジェクトごとに欠かせない内部および外部のステークホルダーを特定し、彼らに、想定される利用シーンや検討中のAIシステムの仕様に関する情報を提供しなければなりません。
3. 規制を考慮し、既存のベストプラクティスに基づき構築する
特定のAIを活用したソリューションのリスクとメリットを検討する時は、影響評価に関連する人権や公民権も含めてください。
4. AIを活用したサービスのライフサイクル全体への、リスク/ベネフィット評価枠組みの適用
AIソフトウェアと従来のソフトウェア開発の重要な違いのひとつは、基本的なモデルがデータと使用に応じて進化していくという、学習という側面です。従って、賢明なリスク評価枠組みには、ビルドタイム(設計)およびランタイム(監視・管理)の双方が含まれていなければなりません。また、ビルドタイムとランタイムのどちらにおいても、マルチステークホルダーの視点で評価が行えるものでなければなりません。
5. ユーザー中心およびケースに基づいたアプローチの採用
リスク/ベネフィット評価枠組みを効果的に機能させるためには、プロジェクトチームの視点から、また、特定のユースケースを中心として設計を行う必要があります。
6. リスクの優先順位付けスキームの明示
多様なステークホルダーのグループにおいて、リスク/ベネフィットの認識と許容度は様々です。従って、リスクとベネフィットがどのように優先順位付けされ、いかに利益相反が解決されるのかを説明するプロセスを含めることが不可欠です。
7. パフォーマンス指標の定義
プロジェクトチームは、主要なステークホルダーと協議し、意図された目的へのAI搭載システムの適合性を評価する明確な測定基準を定義しなければなりません。このような測定基準は、システムの狭義の精度だけでなく、システムのより広義の目的への適合性(規制遵守、ユーザー体験、導入率の要素など)という別の側面も網羅したものでなければなりません。
8. 運用上の役割の定義
プロジェクトチームは、いかなるAI搭載システムの展開および運用においても、人間のスタッフの役割を明確に定義しなければなりません。その定義には、システムの効果的な運用に必要な各担当者の責任、役割を満たすために必要な能力、役割を目的通りに果たさないことで生じるリスクを明確に記す必要があります。
9. データ要件とフローの規定
プロジェクトチームは、いかなるAI搭載システムであっても、効果的な訓練、テスト、運用に必要なデータの量と性質を規定しなければなりません。プロジェクトチームは、システムの運用に伴うデータフロー(データの取得、処理、保存、最終的な処分など)を作成し、データのライフサイクルの各段階で、データの安全性と整合性を維持するための規定を設ける必要があります。
10. 説明責任体制の規定
プロジェクトチームは、いかなるAI搭載システムにおいても、生み出された成果(中間および最終の双方)の説明責任の体制表を作成しなければなりません。このような体制表により、第三者がシステムの予期せぬ結果に対する責任を評価できるようになります。
11. 実験の文化への支援
組織は、展開に向けたAI搭載サービスの実験を行う権利を提唱し、想定内のリスクを奨励しなければなりません。その実現のためには、フィージビリティスタディおよびバリデーションスタディの立ち上げ、部門や専門分野をまたいだクロスコラボレーションの奨励、専用プラットホームを介した知識とフィードバックの共有が必要です。
12. 教育リソースの作成
AI搭載サービスの展開における強力な組織力を開発するためには、様々なリスク/ベネフィット評価枠組み、そのパフォーマンス、改訂版のリポジトリを構築することが重要です。
私たちは、これらのガイドラインが、AI倫理の実践に関心を持つ組織が適切な質問をし、ベストプラクティスに従い、適切なステークホルダーを特定し、プロセスに巻き込んでいくために役立つことを願っています。私たちは、この重要な議論の結論を出すのではなく、責任ある方法でAIを展開しようとする組織のこれからの道のりを支える力となりたいと考えています。
このトピックに関する最新情報をお見逃しなく
無料アカウントを作成し、パーソナライズされたコンテンツコレクション(最新の出版物や分析が掲載)にアクセスしてください。
ライセンスと転載
世界経済フォーラムの記事は、Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International Public Licenseに基づき、利用規約に従って転載することができます。
この記事は著者の意見を反映したものであり、世界経済フォーラムの主張によるものではありません。
最新の情報をお届けします:
デジタルエコノミー
アジェンダ ウィークリー
グローバル・アジェンダとなる、重要な課題のウィークリー・アップデート
メールに記載されているリンクから、いつでも配信を停止することができます。 詳しくはこちらをご覧下さい。 プライバシー・ポリシー.
もっと知る 新興テクノロジーすべて見る
Daniel Dobrygowski and Bart Valkhof
2024年11月21日