Posted: 10 Jan. 2025 9 min. read

第4回 AIの保証・認証制度

AIガバナンスの最前線

本連載では、AIのビジネス導入に欠かせない、AIのリスク対策「AIガバナンス」に係る多岐にわたるトピックについて詳しく紹介していきます。第4回の本記事ではAIの保証・認証制度について解説します。

AIの保証・認証制度に対するニーズ

生成AIを利用するときに、ちょっと心配になったことはないでしょうか。

  • プロンプトとして入力した個人情報は守られるのか?
  • 生成AIの回答は正しいのか?
  • 生成AIの作成した画像を利用したら著作権侵害にならないのか?

一般の方はAIについて必ずしも詳しくなく、AIに詳しい人であっても、利用するAIがどのように開発・運用されているのかはブラックボックスなので、結局は誰もよくわからない状態でAIを利用することになります。もしくは、よくわからず色々不安だからAIを利用するのをやめる、という選択をする人もいるかもしれません。これは個人だけでなく、企業や公的機関でも同じことが言えます。他社のAIサービスを利用しようとして稟議書をあげると、上司に「そのAIサービスを導入してリスクはないのか?何か問題が生じたら当社はどんな責任を負うのか?」と言われて説明に困った、というお話を他企業の方から伺ったことがあります。2024年8月23日に内閣府が開催したAI制度研究会(第2回)において神戸市企画調整局デジタル戦略部が発表した資料にも、以下のように記載されています。

 

開発者や提供者からの十分な協力や情報提供が得られなければ、利用者だけでリスクアセスメントを実施することは困難であり、開発者や提供者が事業者ガイドラインのルールを遵守していることや、製品・サービスとしての責任範囲等を明確化するため、第三者評価や認証の仕組みが有効ではないか
出所:「神戸市におけるAI活用のためのルール整備」、P.8
https://www8.cao.go.jp/cstp/ai/ai_kenkyu/2kai/shiryou3.pdf

 

このように、AI開発者・提供者から提供されるAIに対して、保証や認証といった形で独立した第三者である専門家が信頼を付与してほしいというニーズがAI利用者側にあります。AI開発者・提供者側としても、自社のAIサービスに独立した第三者が信頼を付与してくれているのであれば、競合他社に対して差別化することができます。

なお、デロイト トーマツでは企業が開示する情報(数値だけでなく内部統制等の定性的情報も含む)の信頼性について、独立した第三者が検証手続を実施し、報告書等の成果物を発行する行為を「アシュアランス」と呼んでいます。2024年9月に「アシュアランス ステークホルダーを信頼でつなぐ」という書籍を発行し、AIガバナンスや、日本を含む各国のAIの規制動向等についても触れていますのでご興味がある方はぜひご一読ください。

 

AIの保証・認証制度の現状

では、AIの保証・認証制度にはどのようなものがあるのでしょうか?実は本記事執筆時点(2024年12月)では、日本国内において広く浸透しているAIの保証・認証制度はまだありません。保証制度には、SOC2というセキュリティ、可用性、処理のインテグリティー、機密保持、およびプライバシーに関連する内部統制を対象としたものがありますが、セキュリティなど一部はAIとも関連するものの、ハルシネーション(AIが事実とは異なる情報を出力すること)などAI特有の論点は対象としていません。認証制度には、ISO/IEC 42001 というAIマネジメントシステムの国際規格がすでにあるのですが、この規格に基づき審査する機関が日本にまだありません。

保証・認証制度は、セキュリティについてはすでに存在し、それぞれ長年の実績があるため、AIについてもセキュリティと同じように今後新たな制度が開発・活用されていくことが期待されます。

 

AIの保証・認証制度の先行事例となるセキュリティの保証・認証制度の比較

ここで今後開発されることが期待されるAIの保証・認証制度がどのようなものになるかを予測するために、既存のセキュリティの保証・認証制度の概括し、それぞれを比較してみたいと思います。

セキュリティの保証制度の代表例としては前述のSOC2があり、近年取得するクラウドサービス事業者が増えています。SOC2では監査人(主に監査法人)がTrustサービス規準に従い、セキュリティ等に関連する内部統制の有効性に対して保証意見を表明します。この監査人による保証意見の表明が他の制度にない特徴です。また、報告書には内部統制の内容、監査人の検証手続・結果が記載されるため、報告書の利用者はクラウドサービス事業者がどのようなセキュリティリスクに対してどのような内部統制を整備運用しているのかを知ることができます。ただし、報告書は当該クラウドサービスの利用者および見込顧客など限られた関係者しか利用できないため、誰でも報告書を閲覧できるわけではありません。

セキュリティの認証制度の代表例としてはISO/IEC27001という国際規格に基づく情報セキュリティマネジメントシステム(Information Security Management System, ISMS)の認証制度(ISMS認証)があり、多くの企業が取得しています。情報セキュリティに関する技術管理策・組織的管理策・人的管理策・物理的管理策を対象としており、これらの対策をPDCA(Plan、Do、Check、Action)サイクルで運用して対策の実効性を評価し改善していくことが取得企業には求められます。一般社団法人情報マネジメントシステム認定センター(ISMS-AC)が認定する認証機関による審査を受けて認証登録されます。ISMS認証を取得しているという事実は誰に対しても公表できますが、SOC2と異なり、企業がどのようなセキュリティリスクに対してどのような内部統制を整備運用しているかは認証登録証には記載されないため、外部から知ることはできません。

一方、保証にも認証にも分類されませんが、政府情報システムのためのセキュリティ評価制度(Information system Security Management and Assessment Program: 通称、ISMAP(イスマップ))というものがあります。政府が求めるセキュリティ要求を満たしているクラウドサービスを、あらかじめ評価して登録する制度です。中央省庁や独立行政法人など、政府機関がクラウドサービスを調達する際には、一部の例外を除きこちらに登録されているものから選ぶことが原則となっています。クラウドサービス事業者は、セキュリティ管理策の一覧であるISMAP管理基準(項目数は1000以上あります)に基づき、自社における管理策を策定・実施し、ISMAP監査機関による「ISMAPにおける情報セキュリティ監査」を受けます。ISMAP監査機関(当記事執筆時点では当監査法人を含む5つの監査法人のみ)は、実施結果報告書を発行しますが、自らの意見は表明しません。ISMAPクラウドサービスリストへの登録可否を判断するのはISMAP監査機関ではなく、制度所管省庁と有識者委員で構成されるISMAP運営委員会です。実施結果報告書を制度関係者以外が閲覧することはできません。

 

あるべきAIの保証・認証制度に対する考察

それでは、今後AIの保証・認証制度はどのようになっていくでしょうか。AIの認証制度については、前述のISO/IEC42001があり、今後日本における認定機関・認証機関が決まると取得を希望する企業が増えてくると思われます。

ISO/IEC42001以外の認証制度の実装を目指している団体もあります。筆者が業務執行理事を務める一般社団法人AIガバナンス協会では、認証制度等の中長期的な枠組みの検討・提言を行っており、第三者認証制度などの、企業のAIガバナンスを客観的に可視化・立証する仕組みについて、会員の意見を集約整理しつつ、あるべき制度的な枠組みや認証基準の検討を行い、政府等との折衝も行った上で制度の実装を目指しています。2024年6月には、「AIガバナンス認証制度に関するディスカッションペーパー ver 1.0」を公表しています。

保証制度については、現時点ではAIの保証制度の情報はまだありません。

政府調達に関しても、ISMAPのような政府が求める要求を満たしているAIサービスを、あらかじめ評価して登録する制度はまだありません。ただ、2024年5月に内閣府のAI戦略チームが出した「「AI 制度に関する考え方」について」において、影響大・高リスクのAI(大規模基盤モデル等)開発者にはハードローでの対応を検討する一方、影響小・低リスクのAIについては、「提供者・利用者のガバナンスを第三者が認証する制度も考えられる。既に民間団体による認証サービスが検討されており、その発展や普及が望まれる」とあり、一方で政府による AI の適切な調達・利用についても言及されているため、今後政府のAI調達において民間のAI認証制度等を活用していくことも考えられます。

セキュリティの保証・認証制度等にはそれぞれの特徴があり、保証意見の有無や、内部統制等の詳細情報の必要性など、保証・認証の取得者・利用者の目的やニーズに応じて適切なものが選択されます。複数の保証・認証を取得している企業も多くあります。AIの保証・認証制度もセキュリティと同様に、目的やニーズに応じて複数の制度が開発され利用されるようになると思われます。

以上をまとめると下表のようになります。

現時点のセキュリティ及びAIの保証・認証制度等

 

まとめ

今後AIの保証・認証制度が利用できるようになり、企業がそれらを取得しようとすると、その準備には相応の負荷がかかり、取得に要する費用もかかります。これらを負担できるのは資金的にも人材的にも余力がある大企業のみとなってしまい、AIの技術力は高いものの、資金的人材的に大企業に劣るベンチャー企業を排除することになり、日本のAIのイノベーションを阻害するという論調もあります。もちろん企業の負担軽減は考慮が必要ですが、AIに対する第三者による信頼の付与は、AI開発者・提供者とAI利用者との間の情報の非対称性を解消し、相互の信頼をつなぐことで日本におけるAIの利用を促し、AIがもたらす利便性の高い社会の到来と、AIを通じた日本のイノベーションの促進の一助になると信じています。

以上、本連載第4回では、AIの保証・認証制度の必要性と今後の動向の予測について紹介しました。今後の連載では、日本政府のAI規制の方針や、各国の規制の動向などに関するトピックについて紹介していくとともに、AIの保証・認証制度のアップデートに関する情報も発信していきます。

 

デロイト トーマツではAIガバナンスに関して様々な知見を発信しております。AIガバナンスの策定・実行を支援するサービスも提供しておりますので、下記のページよりお気軽にお問い合わせください。

AIガバナンス – 生成AI時代に求められる信頼できるAIの実現の道筋

 

執筆者

長谷 友春
有限責任監査法人トーマツ パートナー

 

参考:

 

プロフェッショナル

長谷 友春/Tomoharu Hase

長谷 友春/Tomoharu Hase

有限責任監査法人トーマツ パートナー

財務諸表監査、IT監査のほか、SOC1/2保証業務、政府情報システムのためのセキュリティ評価制度(ISMAP)における情報セキュリティ監査業務などに従事しており、トーマツにおけるIT関連の保証業務全般をリードしている。また、一般社団法人AIガバナンス協会の業務執行理事としてAIの認証制度の検討・提言を進めている。公認会計士、公認情報システム監査人(CISA)。 著書:『アシュアランス ステークホルダーを信頼でつなぐ』(共著、日経BP)

染谷 豊浩/Toyohiro Sometani

染谷 豊浩/Toyohiro Sometani

デロイト トーマツ リスクアドバイザリー パートナー

25年以上に渡り、統計分析や機械学習、AI導入等の多数のデータ活用業務に従事。 同時に数理モデル構築やディシジョンマネジメント領域でのソフトウエア開発、新規事業やAnalytics組織の立上げなどの経験を通じて数多くの顧客企業のビジネスを改善。 リスク管理、AML/CFT、不正検知、与信管理、債権回収、内部統制・内部監査、マーケティングなどの幅広い分野でAnalyticsプロジェクトをリードしている。