サービス

BOTは、“リスク”を識別できるのか?

金融機関における、人が監視していな状況におけるAIの挙動の確認 

本ページに掲載されている情報は2023年に、デロイトが米国で配信した内容を翻訳したものです。なお、この翻訳文と原文に相違がある場合は、原文の記載事項を優先します。  

AIは、リスクインテリジェンスを学ぶことができるのか?

背景

ある金融サービス会社が問題を抱えていました。ビジネスユニット全体にわたる複数のアプリケーションの一貫性のないモニタリング、リスクの識別、ガバナンス、およびドキュメンテーションにより、そのAIにおけるリスクが増大していました。

これらの問題に対処する必要がありました。なぜなら、同社は顧客体験の低下をはじめ、ネガティブなブランドイメージ、法や規制などのコンプライアンス違反となる可能性があったからです

なぜ、こういったことが起こっていたのでしょうか?彼らのAIモデルとアプリケーションは結果を迅速に、時には数時間以内に生成していました。そして、AIモデルはその性質上、パフォーマンスを最適化するために学習してアルゴリズムの調整を行う固有の能力を持っていました。

組織の幹部はリスクを管理し、AIアルゴリズムが会社の意図した運用方法の範囲内で確実に動作するための堅牢なメカニズムではないことに気付きました。さらに、ベンダーのAIモデルに関する情報が限られており、リスクを特定する能力が制限されていました。

同社は、既存のAIリスクの管理と、新たなAIリスクを監視するための厳密なプロセスを開発するのに助けが必要でした。しかし、それを実行し、リスク評価を迅速に実行するためには、同社はデータサイエンス、統計、リスク管理の能力を拡充する必要がありました。

解決策
デロイトは、各AIモデルの明確なリスクプロファイルを把握するために、さまざまなビジネス機能にわたって同社が所有する60以上のAIモデルを対象に、詳細な分析を実施することを支援しました。

デロイトのAIガバナンスとリスク管理の専門家は、同社のデータサイエンスチームと協力して、AIモデルをレビューし、リスク評価を開発しました。各AIモデルは、デロイトのAIリスクと照らし合わせてレビューするなど、デロイトのTrustworthy AI™フレームワークを適用しました。

この組織にとってエンジニアが優位に立つための道筋が明らかになりました。提案された手順には、責任あるAIモデルの開発と展開を可能にしながら、問題に対処してリスクを緩和する方法が含まれていました。ガバナンス計画では、AIリスクを管理するために必要な継続的な監視計画とトレーニングも定義されました。

しかし、より重要なことは、デロイトがクライアントにAIをより人間的なものにすることを支援したことです。私たちは人間がAIアルゴリズムを監視するよう提案しました。各AIモデルの背後にある学習が透明であること、そしてAIモデルが予期せぬ結果を生み出した場合に規律と説明責任が存在することを確認しました。

AIは単に知能を高めただけでなく、より人間らしくなりました

インパクト

Trustworthy AIのおかげで、私たちのチームは次のことを実現しました。

  •  AIアプリケーションをチェックしないまま放置していると、ビジネスコンテキストを無視した結果を生成する可能性があるということを理解できるようになりました。
  • AIアルゴリズムおよびテクノロジーに対する一貫した分類とアプローチを作成しました。
  • 同業他社によって設定されたAIガバナンス機能における業界基準を満たしているか、それを上回っているかを分析できるようになりました。
  • AIシステムの意思決定の出力に対する責任者を決定するポリシーにより、ビジネス全体にわたるAIの安全性、透明性、および信頼性を向上させました。
  • 適切なガバナンスとコントロールを備えた責任ある方法で、AI導入を管理するための機敏で的を絞ったオペレーティングモデルを確立しました。
     
  1. 200以上のAIモデルが特定され企業全体で、AIの定義、分類、および適用についての理解を向上
  2. 60以上のAIモデルが評価されAIの使用と展開に関連するリスクを特定
  3.  AI採用への信頼。定義されたオペレーティングモデルと厳格な構造による信頼の創出
  4. 未来のモデル。Day0やDay1だけでなく、時間の経過とともにAIモデルとアルゴリズムを調査するためのシステムを設定

プロフェッショナル

Cory Liepold

Deloitte & Touche LLP 執行役員

Satish Iyengar

Deloitte & Touche LLP シニアマネージャー