ニュースリリース

「AIガバナンス サーベイ 2019」を発表

デロイト トーマツ グループは、日本企業の「AIガバナンス サーベイ」の2019年版を発表します。本調査は企業におけるAIの利活用状況やリスク管理・ガバナンス構築の実態調査を目的に実施し、172件の有効回答を得ました。

  • AI利活用企業の約5割がPoCを実施、その7割が本番運用、6割が目的達成まで実施できている
  • AI利活用の障壁として、AIを理解しビジネスで活用可能にする企画者人材と運用人材の不足がある
  • AIに対する投資規模が小さいと目的が達成できない可能性が高まる
  • AI固有のリスクは認識されつつあるが、対応方法が明確ではない

2020年1月24日

デロイト トーマツ グループ(東京都千代田区、CEO:永田 高士)は、日本企業の「AIガバナンス サーベイ」の2019年版を発表します。本調査は企業におけるAIの利活用状況やリスク管理・ガバナンス構築の実態調査を目的に実施し、172件の有効回答を得ました。
 

■主な調査結果

1. AI利活用企業の約5割がPoCを実施、その7割が本番運用、6割が目的達成まで実施できている

AIを「利活用している」、もしくは「利活用に向けた取り組みを始めている」と答えた回答者は56%おり、このうち、本格運用前の技術検証であるPoC(Proof of Concept)を実施している企業は47%となりました。また、PoC実施後の本番運用(73%)および、目的達成(62%)について共に高い回答割合となりました。本番運用から目的達成への達成割合が1割しか減少していないことからPoCでの実現可能性の評価が機能していることも示唆されます(参照:図表1)。一方で、5割がPoCを実施できておらず、「PoCどまり」以前にPoCを実施することができない回答者が多数存在することがわかりました。

ニュースリリース全文(PDF, 621KB)

2. AI利活用の障壁として、AIを理解しビジネスで活用可能にする企画者人材と運用人材の不足がある

AIを利活用できていない理由については「PoCを企画する人材がいない」が42%、「活用すべきシーンが思いつかない」が39%、「AIについて理解していない」が37%、「予算が確保できない」が29%となり、企画者人材の不足が最も大きな原因であると言えます。また、PoCから本番運用に達することができなかった理由に関しては「システム化や本番運用する体制・人材が準備できない」が51%、「PoCで目標としていた予測精度が達成できない」が47%、「ROIが期待していた基準に達しない」が40%となり、PoCの目的である品質やROI等に関する障壁のみならず、運用人材についても不足していることが示されました。

3. AIに対する投資規模が小さいと目的が達成できない可能性が高まる

AIに関する投資金額が約5,500万円未満、または社内のAI専門家の人数が9人を下回る組織では目的達成の割合が約3割ですが、投資金額が約5,500万円以上、または社内のAI専門家の人数が10人以上の組織になると目的達成の割合が5割~6割となりました(参照:図表2)。これらの結果は、十分な投資金額やAI専門家を投入することなしにAI開発を始めた場合、ビジネス目的を達成できない可能性が高まることを示唆しています。AIに対する投資やAI専門家の投入を検討する際は、ある程度思い切った規模で始めることが重要であると考えられます。

4. AI固有のリスクは認識されつつあるが、対応方法が明確ではない 

AIの利活用が進んだ先に待ちうけている可能性があるAI固有のリスクについての対応状況を尋ねたのが図表3です。全てのリスク項目において「リスク未認識」の回答は17%を下回り、AIの利活用にあたり、AIのリスク識別は行われている傾向であると言えます。一方で、「リスクがあるAIを未使用である」と答えた回答者が多く、該当リスクのAIを活用するケースがない、またはリスクの小さいAIから活用を進めていることからAIの利用範囲が限定的になっている可能性が示唆されます。特にAIが偏見を含んだ判断を行ってしまうリスクを含むAIは「利用していない」との回答が多く、具体例として挙げると採用や人事評価、与信などの領域でのAI利用には慎重になっていることが示されました(参照:図表3)。具体的には下記のようにAI固有のリスクへ適切に対処できれば、これまでリスクが大きいことを理由に断念していた領域でもAIを活用できるようになるため、AIの利用範囲は広がると考えられます。

  • AIが特定の性別や国籍等のグループに、不公平な判断を行うことにより、社会的非難を受けるリスク→予め考慮しなければならないルール等から基準を整備し、予測結果に対するバイアスを軽減するモデルを開発する
  • AIがユーザーを高度にプロファイリングすることにより、ユーザーの機微情報が推定され、プライバシーを侵害してしまうリスク→データ提供者と合意する利用目的を汎用的な内容から具体的な内容に変更し、継続的に利用への同意を確認するスタイルへ変革する


デロイト トーマツ グループは、日本最大規模のプロフェッショナルサービスファームとして有する圧倒的な専門性・総合力と、データ・アナリティクスやデジタル・テクノロジーに関する最先端の実践的知見を融合することで、経済社会や産業の将来像を指し示し、その実現に必要とされる経営変革と社会イノベーションを加速させる「経済社会の変革のカタリスト」となることを目指しています。企業のAI利活用のアドバイザリー業務においては、データ・アナリティクスの専門家組織であるデロイト アナリティクスを中心にAI利活用推進体制の構築や、AIガバナンスの態勢評価をはじめとした各種サービスを提供しています。これにより、組織レベル・プロセスレベルで攻めと守りのバランスが取れ、かつ安心感や信頼感を持ってAIの利活用を企業が推進できる態勢の実現をサポートしています。
 

■「AIガバナンス サーベイ 2019」概要

調査目的

企業におけるAIの利活用状況やリスク管理・ガバナンス構築の実態調査

調査期間

2019年9月18日~2019年11月15日

調査対象

日本に拠点を置く全業種の全部門

調査方法

オンラインによるアンケート

有効回答件数

172件


*図表は四捨五入により合計が100%にならない場合があります。


■調査結果の詳細

 全設問の結果データ、およびサーベイ結果の解説ウェビナーについては、こちらよりご覧いただけます。

報道機関の方からの問い合わせ先

デロイト トーマツ グループ 広報担当 内山、張
(デロイト トーマツ コーポレート ソリューション合同会社)
Tel: 03-6213-3210
Email: audit-pr@tohmatsu.co.jp

デロイト トーマツ グループは、日本におけるデロイト アジア パシフィック リミテッドおよびデロイトネットワークのメンバーであるデロイト トーマツ合同会社ならびにそのグループ法人(有限責任監査法人トーマツ、デロイト トーマツ コンサルティング合同会社、デロイト トーマツ ファイナンシャルアドバイザリー合同会社、デロイト トーマツ税理士法人、DT弁護士法人およびデロイト トーマツ コーポレート ソリューション合同会社を含む)の総称です。デロイト トーマツ グループは、日本で最大級のビジネスプロフェッショナルグループのひとつであり、各法人がそれぞれの適用法令に従い、監査・保証業務、リスクアドバイザリー、コンサルティング、ファイナンシャルアドバイザリー、税務、法務等を提供しています。また、国内約40都市に1万名以上の専門家を擁し、多国籍企業や主要な日本企業をクライアントとしています。詳細はデロイト トーマツ グループWebサイト(www.deloitte.com/jp)をご覧ください。

Deloitte(デロイト)とは、デロイト トウシュ トーマツ リミテッド(“DTTL”)、ならびにそのグローバルネットワーク組織を構成するメンバーファームおよびそれらの関係法人のひとつまたは複数を指します。DTTL(または“Deloitte Global”)ならびに各メンバーファームおよびそれらの関係法人はそれぞれ法的に独立した別個の組織体です。DTTLはクライアントへのサービス提供を行いません。詳細は www.deloitte.com/jp/about をご覧ください。

デロイト アジア パシフィック リミテッドはDTTLのメンバーファームであり、保証有限責任会社です。デロイト アジア パシフィック リミテッドのメンバーおよびそれらの関係法人は、それぞれ法的に独立した別個の組織体であり、アジア パシフィックにおける100を超える都市(オークランド、バンコク、北京、ハノイ、香港、ジャカルタ、クアラルンプール、マニラ、メルボルン、大阪、上海、シンガポール、シドニー、台北、東京を含む)にてサービスを提供しています。

Deloitte(デロイト)は、監査・保証業務、コンサルティング、ファイナンシャルアドバイザリー、リスクアドバイザリー、税務およびこれらに関連する第一級のサービスを全世界で行っています。150を超える国・地域のメンバーファームのネットワークを通じFortune Global 500®の8割の企業に対してサービス提供をしています。“Making an impact that matters”を自らの使命とするデロイトの約286,000名の専門家については、(www.deloitte.com)をご覧ください。