信頼されるAIボット開発に、安全性最優先の設計が不可欠な理由

安全かつ信頼性が高く、広く普及するAIボットを実現するには、多様なステークホルダーが連携した取り組みが必要です。 Image: DC Studio/Freepik
- AIの安全性に関する議論では、基盤モデルに過度に注目するあまり、実際に展開される製品がエンドユーザーにもたらすリスクが見過ごされがちです。
- 生成AIを活用した消費者向け製品の安全性を確保するためには、デジタルの「トラスト&セーフティ」分野と責任あるAI分野が、互いに学び合う必要があります。
- トラスト&セーフティに関する知見を応用し、厳格な責任あるAIガバナンスを実践することで、革新的かつ安全な未来のボットを構築することができます。
現在のAIの安全対策に関する議論は、整合性の課題を抱えています。基盤モデルにおける安全上の懸念と、エンドユーザーが日常的に接する製品における懸念が混同される傾向が見られるのです。
GPT-5のリリースとChatGPTへの実装など、生成AIの能力における近年の飛躍的進歩は、グローバルな注目を集めています。この傾向は、実務者や政策決定者が、従来の信頼と安全性の手法をAI技術を活用して強化し、生成AI製品がユーザーにとって可能な限り安全であることを保証するという、協調的なアプローチから注意をそらす危険性をはらんでいます。
安全で信頼性が高いチャットボットやその他の生成AI消費者向け製品を広く普及させるには、「責任あるAI」と信頼と安全を守るデジタルの「トラスト&セーフティ」という、これまで縦割りだった分野が互いに学び合う必要があります。さらに、バリューチェーンやサプライチェーンの各段階におけるリスク管理の実証済み手法からも学ぶべきでしょう。
モデルの安全性だけでは不十分
政策立案者から慈善家、活動家から経営陣に至るまで、AIの安全性に関する議論では、汎用AIモデルの本質的な安全性を確保することに主眼が置かれてきました。中心となる課題は、人類の存亡にかかわるリスクから公平性や脆弱なコミュニティへの脅威まで、多岐にわたります。
一方、モデルのみに焦点を当てることは、生成AI製品が今日の実際の消費者に与える影響という、同様に緊急性の高い側面を見落とすことになります。この領域では、ショッピングからゲームに至るまでのオンライン消費者ビジネスが注力し、安全対策ツールボックスを長年にわたって高度化させてきました。
ただし、最も差し迫ったAIリスクが現実に現れています。例えば、チャットボットによる自傷行為の助長疑惑、非同意の性的画像や児童性的虐待素材の産業的生成といった事例は、エンドユーザーの安全が最優先されるべきであることを浮き彫りにしています。
AIを開発する企業と従来型デジタル製品を提供する企業との間には、重複する領域も存在しますが、責任あるAIとトラスト&セーフティの分野における連携をさらに強化する必要があるのです。
AI分野においては、強固なリスクリポジトリ、研究協力体制、AIガバナンスに関するエコシステムが構築されており、汎用AIの誤用に伴う存在的リスクや社会リスクについての理解を深める公の議論が活発化しています。
また、複雑なAIサプライチェーンにおける安全性の責任の所在を明確化することは困難です。これは、インフラ事業者、モデル開発者、モデル導入者、エンドユーザーの役割がしばしば混在し、曖昧になっているためです。例えば、最先端モデルを開発する企業は、同時にインフラを運用し、消費者や企業向けの製品を展開し、コンテンツモデレーションなどの目的でこれらのツールを自ら使用することもあります。
責任の所在が分かりにくいからこそ、人を最優先に考えることが正しい出発点なのです。AI製品と人間の関係に焦点を当てることで、車輪の再発明をすることなく、リスク評価と被害軽減のための実証済みの手法を適用することが可能になります。
デジタルセーフティの教訓
ここでも、信頼と安全を守るトラスト&セーフティの専門家が過去数十年間にわたって積み重ねてきた進歩が活きてきます。国際基準から最も困難な課題への協働を目的とした専門フォーラムまで、AI製品、サービスの提供者は、トラスト&セーフティの分野で得られた貴重な教訓を活用することができます。
例えば、ソーシャルメディアやその他のデジタルサービスでは、有害なコンテンツの拡散を抑制すると同時にユーザーの情報アクセス権を擁護する方法が検討されてきました。AIボットの場合、その成果は異なる形となるかもしれませんが、新機能を導入する際のリスク評価の計算やトレードオフの検討プロセスは同様です。
AIが既存のデジタルサービスに急速に統合される中、多くの人々にとって生成AIとの最初の接点は、検索エンジンや生産性向上ツール、ソーシャルメディアといった慣れ親しんだ製品の中で生まれることになるでしょう。
AIボットに対する規制当局の見解
欧州連合(EU)のデジタルサービス法など、オンライン安全規制においてAIをどのように扱うかについても、規制当局は同様の考え方を採用。報道によると、欧州委員会はChatGPTの検索機能を「大規模オンライン検索エンジン」に指定する方針です。これにより同サービスにはより厳格なデューデリジェンスと透明性要件が適用されることになります。
AI製品と他のデジタルサービスとの相互作用からは、検索エンジンによるAIチャットのアーカイブ化など、新たなリスクも生じています。これらの課題に対処するには、業界横断的な協力による解決策の策定が必要となるでしょう。
心強いことに、一部のAI企業は既存の枠組みに参加しています。例えば、AI企業のアンソロピックは、テロ対策に関するグローバル・インターネット・フォーラム(Global Internet Forum to Counter Terrorism)に加盟。一方で、AI導入企業による業界団体やマルチステークホルダー連携へのより広範な参加が求められます。
ボット技術にとっての変革的機会
あらゆる革新的な分野では、課題を独自の複雑さを持つものと見なす傾向があります。ただし、リスクが新しいものであっても、それに対処するための手法自体は必ずしも新しいものではありません。生成AIの普及を可能にする優れたユーザー体験は、以下の取り組みから生まれるでしょう。
- 製品開発における「設計段階からの安全性」
- 統合に向けた業界連携説明可能かつ定期的に更新される思慮深いガバナンス
- 人間とAIの能力を融合した執行体制継続的改善への取り組みと、適切な透明性確保のための創造的アプローチ
幸いなことに、実務レベルではAIとトラスト&セーフティの専門家たちが、これらの取り組みにおいて深く連携しています。トラスト&セーフティ分野の主要カンファレンス「TrustCon」におけるAI関連セッションの数と質が、この協力関係を物語っています。
そして、適切に調整されたAIがトラスト&セーフティの変革に寄与する可能性は、現実のものです。過去の失敗を避けるため、企業は、自社技術をトラスト&セーフティの代替としてではなく、その能力を強化する手段として活用しなければなりません。この機会を活かすには、AI導入企業とデジタルエコシステム全体とのパートナーシップを正式に確立し、規模を拡大していく必要があります。
人間のエンドユーザーに焦点を当て、トラスト&セーフティ分野の教訓と厳格な責任あるAIガバナンスの両方を適用すれば、現在、そして将来のAIボットは、革新性と安全性の両方を兼ね備えたものになるでしょう。
このトピックに関する最新情報をお見逃しなく
無料アカウントを作成し、パーソナライズされたコンテンツコレクション(最新の出版物や分析が掲載)にアクセスしてください。
ライセンスと転載
世界経済フォーラムの記事は、Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International Public Licenseに基づき、利用規約に従って転載することができます。
この記事は著者の意見を反映したものであり、世界経済フォーラムの主張によるものではありません。
最新の情報をお届けします:
サイバーセキュリティ
アジェンダ ウィークリー
世界の課題を読み解くインサイトと分析を、毎週配信。