ナレッジ

生成AIの導入において企業が検討すべきリスクと対策

APリスクアドバイザリー ニュースレター(2023年12月22日)

ChatGPT等の生成AIの特長と影響

AIは、過去のデータに基づいて予測するという性質から、データが存在するあらゆる領域での活用が進んでいます。特に近年ますます注目を集める生成AIは、業務やビジネス運営の在り方を根本的に変革する現実味が帯びてきています。

生成AIサービスの一つに、ChatGPTが挙げられます。2022年11月30日の無料公開からわずか1週間で登録ユーザー数が100万を突破し、過去最高の普及速度が話題となりました。従来、コンピュータに指示するためにはプログラミングによる命令が必須でしたが、ChatGPTは人間の話す「言葉」によって挙動を変更することのできる高い「汎用性」をもち、(1)調査・分析、(2)創作、(3)対話、といった多様な用途での活用が可能です。人々が普段話す「言葉」を画面上に打ち込むだけで、アイディア発案に利用したり、ディベート相手をしてもらったり、Webサイトの内容を要約したりといった様々な用途が知られており、産・学・官・民と多方面に影響を与えています。

図1 ChatGPTの調査・分析用途の例

ビジネスにおける生成AIの活用と影響

ChatGPTをはじめとした生成AIを自社のサービスに活用するなど、生成AIを実務に取り入れる動きも徐々に進んでいます。例えば、文書作成や校正、要約技術を利用することでバックオフィス領域における担当者業務の負荷が軽減することが想定されます。フロントオフィス領域においても、調査やプロダクトのデザイン作成、サービスのペルソナの検討、データの分析など、幅広い分野での活用が期待されます。既存の業務やサービスを省人化・効率化するだけでなく、自動実行させる等の先進的な用途も期待される生成AIの活用を検討することは、今後企業の競争力を維持するためにも必要だと考えられます。

 

生成AIの活用とリスク対策のポイント

様々な場面でのビジネス適用によって大きな効果が見込まれる一方、誤った生成AIの利用によってビジネス上問題となった事例も出てきています(表1)。

表1 生成AIの誤った利用によってビジネス上問題となった事例

事例

内容

生成AIが生成した架空の判例と気づかずに裁判に利用

米国ニューヨーク州の弁護士が民事訴訟の資料作成に生成AIを利用した結果、引用した判例が実は架空の判例であったことが問題となり、弁護士と所属する法律事務所に対して合計5,000ドルの罰金支払いが命じられました。

ソースコードを誤って生成AIにアップロードしたことで社外にリーク

韓国の大手電子機器メーカーでは、同社のエンジニアが社内ソースコードを生成AIにアップロードしたことで誤ってリークさせてしまったことが発覚し、同社は生成AIの利用を原則禁止としました。AIプラットフォームに送信されたデータは外部のサーバーに保存されるため回収・削除することが難しく、他のユーザーに開示される懸念があります。

 

AIの利用が普及してから、情報漏洩、権利・プライバシーの侵害、情報の正確性・安全性への懸念、学習データの偏りによる公平性やバイアスのリスクが考えられており、「AIガバナンス」の枠組みにおいて長らく検討されてきました。これらの従来から存在するリスクに加えて、生成AIは言葉によってどこでも・誰でも・簡単に利用することができるという汎用性の高さゆえに、リスクが多様化し、影響範囲が広範化し、顕在化頻度が上がることに注意しなくてはなりません。

生成AIの活用とリスクへの対策を効率的に進めるためには、(1)人材育成、(2)社内ガイドラインの策定・導入・運用といったルール策定、(3) 活用やリスク対策のための推進組織の構築、(4)ユースケースの検討と業務プロセスの変革、(5)システム導入、(6)新規サービス開拓・技術高度化の6つの観点から検討を行う必要があります。人材の流動が激しい東南アジアにおいては、育成した従業員が退職してしまうことでノウハウが社内に蓄積しないというケースも想定されるため、留意が必要です。運用に関する社内規定を定める、またシステムによってツールへのアクセスや社内資料からのコピー&ペーストを制御するといった統制を構築する、といった対応も考えられます。

ライフスタイルやビジネスモデルの発展が目覚ましい東南アジアにおいては、日本の本社よりも生成AIの利活用が加速する可能性があり、今後生成AIを活用するにあたって下記のような課題が想定されます。

  • 利用にあたって社内で責任をもつのはどの部門/誰か?
  • どのようなルールが必要か(機密データをアップロードしない等)?
  • 生成AIによる重大なリスクを防ぐために、従業員はどのようなことを知っておくべきか?
  • リスクをどのように検知し、どのように対応するか?
  • IT・デジタル部門、ユーザー部門、リスク・コンプライアンス部門のコラボレーションを加速するためにどうしたらよいか?

生成AIによる重大なリスクを回避するためには、一定のガバナンスやリスク管理の枠組みを導入することが必要です。利用する際には扱う情報に注意し、生成AIのアウトプットはインターンや新人社員のアウトプットのようなものだと考えて、その内容に対して責任をもって慎重にアウトプットをレビューした方が良い、といった声も聞かれます。コストの削減が優先課題として挙がる在東南アジア企業において、企業の競争優位性を高めるために生成AIを活用して既存の業務やサービスを効率化し、またAIの先進活用用途の開拓が進むことは必然と言えますが、活用に起因するリスクを低減するための仕組みの導入も併せて検討する必要することが不可欠です。企業においては生成AIの活用方法だけでなく、企業を予期せぬリスクからどのように保護するか、短・中・長期的な視点で検討する必要があります。

 

本稿に関連するデロイト トーマツ グループのサービスのご紹介

デロイト トーマツ グループでは、ビジネス知見・AI活用・AIリスク対策に係る高い専門性とグローバルネットワークを活用し、生成AIの「活用」と「リスク対策」を日系企業の皆様に提供しております。また、日本ディープラーニング協会との連携や東京大学との共同研究、政府プロジェクトへの参画などを通じ、生成AIの活用とリスク対策「AIガバナンス」を研究・開発しております。他社の動向、取り組み事例等の詳細な情報を確認されたい際は、ぜひデロイト トーマツのプロフェッショナルまでお声掛けください。

 

AIガバナンスに係るデロイト トーマツの取り組み

「JDLA Generative AI Test 2023」検討への参画
https://www.jdla.org/certificate/generativeai/

  • JDLAの生成AI活用知識確認のための新テスト「JDLA Generative AI Test 2023」の試験作成にデロイト トーマツが有識者として関与しました
  • 生成AIの適切な利活用を多くの方々が進めるために、目指すべき試験のあり方の検討から試験範囲の設定、問題・解説の作成に至る

東京大学との共同研究「リスクチェーンモデル」
https://ifi.u-tokyo.ac.jp/projects/ai-service-and-risk-coordination/

  • 東京大学との共同研究において本モデルを用いたケース検討を多数実施
  • フレームワークの開発にデロイトが関与

省庁におけるルール形成の検討への参画
https://ifi.u-tokyo.ac.jp/projects/ai-service-and-risk-coordination/

  • 経済産業省「AI原則の実践の在り方に関する検討会 AIガバナンス・ガイドラインWG」のコンサルテーションメンバーとして弊社メンバが参画 (https://www.meti.go.jp/press/2021/07/20210709002/20210709002.html)
  • 上記の他、省庁・国立研究機関向けにAIの認証制度・標準化に係る海外動向調査を複数実施

AIガバナンスサーベイ
https://www2.deloitte.com/jp/ja/pages/deloitte-analytics/articles/ai-governance-survey.html

  • 2018年から企業におけるAIガバナンスに係る調査を継続実施、レポートを発行

著者:山本 優樹、有澤 友里

※本ニュースレターは、2023年12月22日に投稿された内容です。

アジアパシフィック領域でのリスクアドバイザリーに関するお問い合わせは、以下のメールアドレスまでご連絡ください。

ap_risk@tohmatsu.co.jp

お役に立ちましたか?