Posted: 06 Dec. 2024 12 min. read

第1回 AIガバナンスとは何か?リスクと必要性

AIガバナンスの最前線

本連載では、AIのビジネス導入に欠かせない、AIのリスク対策「AIガバナンス」に係る様々なトピックについて詳しく紹介していきます。第1回の本記事では、AIの技術的特徴を踏まえ、AIリスクの特徴を紐解き、その上で必要となる対策「AIガバナンス」の全体像を示します。

はじめに

人間の知能を模倣する技術 - AI(人工知能)- の進化と共に、ビジネスへのAI導入が急速に進んでいます。特に昨今の生成AI技術の躍進は、その動きを一層加速させています。

AIのビジネス導入には多くのメリットがあります。業務の自動化による大量の情報の迅速な処理、ヒューマンエラーや属人業務の削減、業務品質の一貫性の確保等、業務の効率・品質面での向上に加え、多様なビジネスにおける価値の付加が期待されています。しかしながら、これらAIの活用効果と同時に、AIの活用に伴うリスクも存在します。AIが多岐にわたる分野で活用されるようになると、その用途の広がりに応じて様々なリスクが生じ、これらリスクは事故や社会問題として表出し始めています。

以上の背景から、AI活用に伴うリスクへの対策「AIガバナンス」の必要性がますます高まっています。AIガバナンスとは、AI技術の利用における倫理的、法的、技術的なガイドラインやフレームワークを整備し、リスクを管理・軽減するための取り組みを指します。AIが技術面、活用面、規制面で様々な動きを見せるいま、企業が単独でこれらのリスクに対処するのは困難です。そのため、ガイドラインの策定や企業内実践事例の情報共有などを通じ、社会全体でベストプラクティスを確立していくことが求められています。

本連載では、AIガバナンスに係る様々なトピックについて詳しく紹介していきます。第1回の本記事では、AIの技術的特徴を踏まえ、AIリスクの特徴を紐解き、その上で必要となる対策「AIガバナンス」の全体像を示します。
 

AIリスクの特徴とは

AIとは、人間の知能をコンピュータで模倣する技術です。機械学習、深層学習など、データの特徴を自動的に学習し、それを予測や判断などの形で再表現する技術をコアのアプローチとし、確立されてきました。データの特徴を自動的に学習できるAIの技術は、そのビジネス導入において様々な強みを発揮します。その中でも特筆すべきは、人間が知識や処理を明示的にコンピュータに指示する(プログラミングする)必要がない、という点です。例えば、AIを用いた自動翻訳では、文法などの知識を与えずとも、翻訳の前後のデータから言語間の対応関係や文脈を学習し、新しい文章を翻訳する能力をAIに持たせることができます。これは、ビジネスにおけるあらゆる業務において、その前後のデータさえあれば、AIにその業務を担わせることができる可能性を示唆します。

AIが持つこのような強みから、データが存在するさまざまな業務においてAIの導入が進められてきました。しかし、この強みは同時にAIの活用に伴うリスクの主要な要因となります。具体的には、以下の通りです。

  • 正確性:AIは大量のデータを元に学習し、予測や判断を行いますが、その正確性はデータの質によって左右されます。不適切なデータや偏ったデータが学習に使われると、不正確な結果を導く可能性があります。
  • バイアス:AIが学習するデータには既存の社会的偏見やバイアスが含まれていることがあります。その結果、AIが出す判断や予測にもバイアスが反映されることがあり、公平性に欠ける結果を生むことがあります。
  • 透明性:データから学習されたAIの処理プロセスは不明確であり、ブラックボックス化することが多いです。人間が知識や処理を明示的にコンピュータに指示するルールベースの技術と異なり、AIがどのようにして特定の結論に至ったのかを説明するのが難しく、信頼性や説明責任に問題が生じます。
  • プライバシー:AIの精度を上げるためには大量のデータが必要ですが、ユースケースによってはそのデータに個人情報が含まれる場合があり、それがどのように扱われるかによってはプライバシー侵害のリスクがあります。
  • 著作権や知的財産の侵害(法的リスク):AIは膨大なデータを利用して学習を行うため、AIによって生成されたコンテンツが著作権や知的財産権を侵害する可能性があります。AIによって生成されたコンテンツが他人の著作物を模倣したり、既存の商標を無断使用したりするケースが発生することがあります。
  • セキュリティ:AIシステム自体が攻撃の対象となることもあります。例えば、AIの振る舞いを意図的にコントロールするような敵対的攻撃や、AIへの繰り返しアクセスにより学習時のデータやパラメータを逆解析する攻撃などが知られています。

これらAIリスクは、AIの用途が多岐にわたることから、リスクの多様性や広範な影響範囲、そして統一的なルール構築の難しさなどの特徴を生み出し、この特徴はリスク対策をより困難なものにしています。

特に、昨今の生成AIの躍進はこれらAIリスクの特徴をさらに色濃いものにしています。生成AIは高い言語処理能力を持つため、言葉を扱える誰もが高度にAIを活用できるようになったことがその本質的要因と捉えられます。従来、ユースケースごとのAIの振る舞いの調整や性能の最適化はデータサイエンティストやAIエンジニアなどの一部の専門家でないとその実行が難しかった一方で、生成AIでは言葉を扱える誰もが同等の作業を行いうることから、AIの利用者ができることの範囲が広がります。さらに言葉で扱えるという汎用性から、AIの利用者の数自体も増えます。生成AIはこれらAIの利用者の質的、量的変化をもたらし、先述のAIリスクの特徴をさらに顕著にしているのです。

 

AIガバナンスの潮流と企業のアプローチ

生成AIの普及に伴い、AIガバナンスの必要性はますます高まっています。一方で、先述のAIリスクの特徴を踏まえると、企業が単独でその対策を行なっていくことは困難な状況であり、企業内実践事例の情報共有などを通じ、社会全体でリスク対策を行う姿勢が見られます。AIのリスク対策を行うための規制やガイドラインの制定も進んでいますが、その動向は各国地域で特徴あるものとなっています。

まず、EU(欧州連合)においては、AIに対する包括的な規制「EU AI Act」が施行され、段階的にルールの適用が開始されています。生成AIも規制対象とし、AI利用の禁止事項に関する違反の場合は、最大3,500万ユーロあるいは前年度の全世界総売上高の7%のいずれか高い方を科すという内容となっています。米国においては、政府が米ビックテックを巻き込みながらAI原則や法規制の整備を進める方針が示されており、特に州ごとに法規制化が進行しています。中国は2023年8月という世界的にも早い段階で「生成型人工知能サービス管理暫定弁法」の施行を開始しています。日本においては政府AI戦略会議での検討、パブリックコメントを経て2024年4月に総務省・経産省から「AI事業者ガイドライン」が発行されています。本ガイドラインではAI事業における「AI開発者」「AI提供者」「AI利用者」の3者の視点でAIに対し取り組むべき事項が記載されています。本ガイドラインは、各国規制動向やガイドラインを広く踏まえた内容となっており、日本国内事業者は優先的に参照するべきガイドラインとして位置付けられています。

これらの規制やガイドラインを踏まえ、企業が行うべきAIガバナンスのアプローチは次のように整理できます。まず、「ポリシー・ルール制定」です。これは自社のAI活用やリスク対策に対する基本的な考えや、それに則ったルールを明文化することで、AIに対する企業の姿勢や方向性を企業内外のステークホルダーに示すものです。次に、「体制・プロセス構築」です。これは自社内でのAIガバナンスの実施体制やプロセスを整備することを指します。AIの活用とリスク対策に係る各種取り組みを担う中心的組織の組成、そして事業部等のAI活用推進側の組織と、リスク管理部等のリスク管理側の組織との連携や、AIの活用を妨げる過度なリスク対策を行わないリスクベースアプローチを踏まえたプロセスの検討と構築がここに該当します。最後に「運用」です。これは上記で定めたルール、体制、プロセスを、規制や社会動向等に合わせ柔軟に変化させながら企業における事業活動においてAIの活用に伴うリスク低減の効果を維持するための取り組みになります。

生成AIの普及は、このようなAIガバナンスのアプローチにも影響を与えています。先述の通り生成AIは高い言語処理能力を持ち、汎用的に利用できるため、先述した「AI事業者ガイドライン」の整理における「AI利用者」側へのガバナンスがより重要性を帯びてきています。社内における生成AI利用ガイドラインの制定や、モニタリングの仕組みなど、「AI利用者」の質的・量的変化に対応するためのガバナンスアプローチがより求められるようになってきているということです。一方で、このような「AI利用者」の質的・量的変化は、従来の人手によるリスク対策をより困難なものにしています。これからのAIガバナンスでは、リスク対策そのものにAI技術を活用することも重要なポイントとなることが想定されます。

 

以上、本連載第1回では、AIの技術的特徴を踏まえ、AIリスクの特徴を紐解き、その上で必要となる対策「AIガバナンス」の全体像を示し、生成AIの躍進がAIガバナンスの必要性を高めている点について述べました。後続の連載においては、AIガバナンスに関する多様なトピックについて、より詳しく紹介していきます。

 

デロイト トーマツではAIガバナンスに関して様々な知見を発信しております。AIガバナンスの策定・実行を支援するサービスも提供しておりますので、下記のページよりお気軽にお問い合わせください。

AIガバナンス – 生成AI時代に求められる信頼できるAIの実現の道筋

 

執筆者

山本 優樹
デロイト トーマツ リスクアドバイザリー合同会社 ディレクター
Deloitte AI Institute(DAII)メンバー

プロフェッショナル

長谷 友春/Tomoharu Hase

長谷 友春/Tomoharu Hase

有限責任監査法人トーマツ パートナー

財務諸表監査、IT監査のほか、SOC1/2保証業務、政府情報システムのためのセキュリティ評価制度(ISMAP)における情報セキュリティ監査業務などに従事しており、トーマツにおけるIT関連の保証業務全般をリードしている。また、一般社団法人AIガバナンス協会の業務執行理事としてAIの認証制度の検討・提言を進めている。公認会計士、公認情報システム監査人(CISA)。 著書:『アシュアランス ステークホルダーを信頼でつなぐ』(共著、日経BP)

染谷 豊浩/Toyohiro Sometani

染谷 豊浩/Toyohiro Sometani

デロイト トーマツ リスクアドバイザリー パートナー

25年以上に渡り、統計分析や機械学習、AI導入等の多数のデータ活用業務に従事。 同時に数理モデル構築やディシジョンマネジメント領域でのソフトウエア開発、新規事業やAnalytics組織の立上げなどの経験を通じて数多くの顧客企業のビジネスを改善。 リスク管理、AML/CFT、不正検知、与信管理、債権回収、内部統制・内部監査、マーケティングなどの幅広い分野でAnalyticsプロジェクトをリードしている。