AIリスク対策のはじめの一歩~AIガバナンスウェビナー~ウェビナーレポート ブックマークが追加されました
2022年11月18日に「AIガバナンスウェビナー~AIリスク対策のはじめの一歩~」が開催されました。当初の想定を超える200名以上の方にご参加いただき、ウェビナー参加者にリアルタイムでアンケートを実施、得られた回答結果に基づき登壇者間でディスカッションするなど、盛況かつインタラクティブなウェビナーとなりました。
本ウェビナーでは、Deloitte AI Institute(DAII)のプロフェッショナルによって、AIのリスクの全体像から、その対策である「AIガバナンス」の世界潮流、そして企業でAIガバナンスを実践していくにあたり「誰が」「何を」行うべきか、また具体的なはじめの一歩まで、AIと上手に付き合っていくためのポイントを皆様に説明しました。
本記事ではウェビナー内容の要約と、そこから得られた示唆をまとめています。また、文末ではウェビナー中に皆様から寄せられた質問への回答も記載しています。
▼ 講演内容(ファシリテーター:清水咲里)
1. 開会挨拶(森正弥)
2. AIのリスクとその対策「AIガバナンス」の全体像(山本優樹)
3. 企業におけるAIガバナンス(藤井寛人)
4. AIガバナンスのはじめの一歩~AIリスク対策の検討フレームワーク「リスクチェーンモデル」~(松本敬史)
5. Deloitteのサービス紹介(老川正志)
6. パネルディスカッション(登壇者全員)
7. 閉会挨拶(松本清一)
「企業としてのAIリスク対策=AIガバナンス」の機運が高まっている
森正弥
デロイト トーマツ コンサルティング合同会社 執行役員
DAII Japan所長
本ウェビナーの開会挨拶として登壇したのは、DAII Japan所長の森正弥です。AIは組織に競争的優位性をもたらすドライバーだと主張する一方で、AIによる事故や倫理的問題が顕在化しており、「企業としてのAIリスク対策=AIガバナンス」の機運が高まっていることに言及し、AIガバナンスを考えていく重要性を述べました。
AIのリスクの全体像から、対策としてのAIガバナンスの潮流やその実践までお伝えする
山本優樹
有限責任監査法人トーマツ シニアマネジャー
トップバッターとして登壇したのは、有限責任監査法人トーマツ所属の山本優樹です。AIガバナンスの全体像という表題の通り、AI技術の特異性やAIプロジェクト、ルール形成の観点で包括的にAIガバナンスを構築する上での課題を提起しました。技術者としてのバッググラウンドを活かし、AI活用の事故事例をわかりやすく説明したほか、AIに対する規制について日本・米国・欧州のスタンスの違いを紹介しました。先行する欧米の動きを注視することが、日本のAI規制に備える意味でも重要であると結びました。
AIプロジェクトの「特性」を押さえることが、AIガバナンス検討の第一歩である
藤井寛人
デロイト トーマツ コンサルティング合同会社 シニアマネジャー
続いて登壇したのは、デロイト トーマツ コンサルティング合同会社所属の藤井寛人です。AIプロジェクトでは、従来のIT構築にはない、重要な「特性」を考慮する必要があると問題提起しました。従来のIT構築では「ルール」「業務フロー」設計時、公平性・プライバシー・透明性・安全性などの論点が予め検討されていたのに対し、AIプロジェクトでは、データドリブンで「ルール」設計を行うため、それが起こりません。対策として、「ルール」「業務フロー」に着目していた社内の関係部署を、“AI利活用に対する企業としてのガバナンス”に適切に巻き込んでいくことが重要だと論じました。AIガバナンスの方向性を確固たるものにするには、「自社のポリシーと整合を取りながら、AIガバナンスの在り方を検討していく点も重要である」ことを強調しました。
AIガバナンスは、AIを導入するまでではなく、導入後に求められる様々な変化への対応の方が難しい
松本敬史
デロイト トーマツ コンサルティング合同会社 シニアスペシャリストリード
続いて登壇したのは、デロイト トーマツ コンサルティング合同会社所属の松本敬史です。AIガバナンスを考える上で、AIモデル自体は一要素であり、データ収集からUIに至るまで、プラットフォーム全体がAIサービスとして、一体で考えるべきであると主張しました。そのうえで、一連の検討過程をステークホルダーに説明することが、AIガバナンス上重要であると断じ、広義にわたる論点を明瞭に説明する際には、リスクチェーンモデルが有用であると展開しました。リスクチェーンモデルとは、東京大学が開発したAIサービスに係るリスクコーディネーションのフレームワーク(出所:AIサービスのリスク低減を検討するリスクチェーンモデルの提案 | 東京大学未来ビジョン研究センター (u-tokyo.ac.jp))です。ケース事例を挙げながらリスクチェーンモデルを説明し、段階的なリスクヘッジが可能になることを示しました。リスクシナリオとその影響を定義することで、AI導入後のリスクを予測・対処がより明確になる可能性を示唆しました。
AIガバナンスの第一歩は、自社の取り組み内容を診断し、正確に状況把握することである
老川正志
デロイト トーマツ コンサルティング合同会社 シニアマネジャー
続いて登壇したのは、デロイト トーマツ コンサルティング合同会社所属の老川正志です。老川は、AIガバナンス実現には、組織・人材とAIサービスの両輪を考慮する必要があると説きました。また、ガバナンスゴール設定の前に、AIガバナンスに対する自社の取り組み状況を把握すること(成熟度診断)が重要であると強調しました。その後、信頼できるAIの実現を助けるDeloitteのAIツールを紹介しました。
上段左から、清水咲里、松本敬史、山本優樹
下段左から、松本清一、老川正志、藤井寛人
続いて、これまでの各セッション中に参加者にリアルタイムで実施したアンケート結果に基づき、パネルディスカッションを実施しました。ファシリテーターである清水を中心に、登壇者へのウェビナー参加者からの質問も交えつつ、活発な議論が展開されました。「本講演で説明したAIのリスク(責任の所在/透明性、公平性、プライバシー、安全性/頑健性)のうち、認知していなかった、もしくは本講演で重要性を再認識したリスクとは何か」というアンケートに対し、松本が「責任の所在/透明性や公平性が特に注目されているというアンケート結果は、AIサービスが広く普及し始めている現在の顕在化したリスク(=参加者の関心)を反映しているのではないか。」と述べました。リスクを予め予測し、先回りして対処することは言うまでもなく必要不可欠です。その前段階として、今回のアンケート結果から、現状に取り巻くリスクを正しく把握する重要性を再認識するセッションとなりました。
自社にとってのふさわしいAIガバナンスの在り方は何か
松本清一
有限責任監査法人トーマツ マネージングディレクター
最後に閉会挨拶として登壇したのは、有限責任監査法人トーマツ所属の松本清一です。各講演内容をラップアップしつつ、「AIを活用したサービス・製品はすでに多数存在するが、今後も増加していくだろう。自社にあったサービス・製品は何なのか、自社にとってのふさわしいAIガバナンスの在り方は何かを考える必要がある」と結びました。
本ウェビナーでは、参加者の皆様から質問を受け付けておりました。ここでは頂いた質問のうち、主要なものについて回答を記載いたします。ぜひご参考頂ければと思います。
Q1. 「AI活用に伴う説明責任について、例えば、日本人のデータしかない場合、日本人のデータのみで学習、評価されたAIモデルを使用することを公開すれば、説明責任は果たせるのでしょうか?」
A. 「どこまで実施すれば説明責任が果たせるか、といった明確な基準はないものの、言及頂いた情報の公開だけでは不十分と考えられます。AIを活用するにあたってのビジネス目的と照らし合わせて、そのような(日本人のみの)データセット構成が適切なのかの明示、AI活用の対象(日本人のみなのか、日本人以外も含まれるのか)の明示、もし日本人以外もAI活用の対象となりうる場合は、日本人以外についてはAIは活用せず人手でサービス提供を行う等、データセット上問題がある点についての対応策まで示すことで、説明責任の程度は向上するものと考えられます。AI活用における公平性担保は世界的に重要視されており、言及頂いたようなデータセットの使用についてはAI公平性の観点でのリスクを孕むことを十分ご承知のうえ、ご検討頂くことをお勧めいたします。」
Q2. 「AIとはどういった条件を満たすものを指すのか、AIの定義を教えて頂けないでしょうか?」
A. 「AI(Artificial Intelligence, 人工知能)については明確な定義は存在しないものの、「人工知能は大量の知識データに対して、高度な推論を的確に行うことを目指したものである」(一般社団法人 人工知能学会設立趣意書からの抜粋 https://www.ai-gakkai.or.jp/about/about-us/jsai_teikan/)などとされています。このようなAIというものの定義の曖昧さは、AIリスクに大きく関連することを認識しないままサービスを提供してしまったり、その具体的な対策を困難にするなど、企業がAIリスク対策を行う上での難しさの1つの要因になっているものと考えられます。」
Q3. 「AIの活用を開始したばかりで、AIガバナンスという考え自体がまだ会社にありません。AI活用のリスクが顕在化した際に具体事例から学んでいきたいと考えていますが、このようなアプローチは適切でしょうか?また事例を紹介しているようなサイトがあれば紹介頂けないでしょうか?」
A. 「事例ベースでAI活用のリスクについて学んでいくことは、必須でやらなければならないことと考えられます。但し、それだけでは十分ではありません。AIの活用のされ方によりリスクは異なるため、自社のAI活用の現況に適合したリスクが網羅されていない可能性があるためです。事例を紹介しているサイトについては、AIインシデント・データベースがございます。(英語)https://incidentdatabase.ai/
AIインシデント・データベースは、大手テック企業がAI技術のマイナス面を研究するために設立した非営利団体『Partnership on AI』によって運営されております。ぜひご参考頂ければと思います。」
【編集後記】
各講演に共通することとして、「経営層からAIサービスの担当者に至るまで、多数の関係者を巻き込み、合意形成しつつAIガバナンスの在り方を検討する必要がある」点が挙げられます。今回ご紹介したAIガバナンスの各種プロセスやフレームワーク、そして、リスクチェーンモデルを用いて、リスクシナリオとその影響範囲を明確にした上で各種対応を効果的に進められるでしょう。外部環境やAIを取り巻く技術自体、日々変化の激しさを増しています。議論がぶれないための軸として、自社の理念は重要です。多数の関係者を含めたAIガバナンス検討を通じて、各人が自社の理念を再認識する機会にもなるかもしれません。
(文責:デロイト トーマツ コンサルティング合同会社 中島拓海)