Posted: 21 Apr. 2021 5 min. read

XAI(Explainable AI) - 信頼性の高いAIを目指して

シリーズ:デジタルトラストについて考える

AI のブラックボックス問題と説明可能性

近年、AIは様々な産業で活用されるようになりました。多様な機能が従来にない精度で実現され、医療から交通、電力供給まで生活のあらゆる面に関わっています。ですが、同時に懸念も語られています。機械学習に基づく現代のAIは、学習過程が複雑です。ゆえにその認識や予測の結果がブラックボックスとなり、AIがなぜそのような判断をしたのか確認するのが難しいという問題があります。

AIがブラックボックスであることはよく指摘されますが、全ての機械学習モデルがそうというわけではありません。回帰モデルや決定木モデル等の手法では入力と出力の関係が理解しやすいため、対比的にホワイトボックスモデルと呼ばれることがあります。このような理解しやすさのことを説明可能性といいます。

 

AIの説明可能性と性能は一般的にトレードオフの関係にあります。人間が管理できないほど膨大なパラメーターを組み合わせて計算することで高い精度の予測が達成されますが、そのようなモデルの詳細は人間には理解できず、説明可能であるとはいえません。かといってパラメーターの数を削減して単純化していくと説明できる余地は高まりますが、性能もまた限定されます。

 

用途によっては説明可能性の乏しさは問題になりません。例えば、AIが特定の映画を推薦した理由はそれが面白い映画であれば気にはならないでしょう。ですが、クレジットカードの申請が却下された理由は気になります。もし本人の責任に属さないジェンダーや人種が理由であったのならば、それは問題です。AIが、クレジットカードの申請や学業の評価、入社可否の判定等、人の評価に関わる場合、または自動運転や医療診断等の人命に関わる場合、「AIがなぜそう判断したか」という根拠や過程に説明可能性が求められます。そこでXAIによる解決に注目が集まってきています。

XAI(Explainable AI)の実現に向けて

XAI(Explainable AI)とは、AIの判断を人間が説明できるようにする方法や技術の総称です。米国のDARPA(国防高等研究計画局)による研究プロジェクトにて初めて用いられました。

AIは、時に望ましくない学習をしてしまうことがあります。前述の映画を評価するAIのケースでは、学習の結果、「『話の展開が単調』というレビューのある映画は、低評価である可能性が高い」という風に判定基準を獲得するだけでなく、データによっては特定の俳優が出演する作品は低評価であると学習してしまうかもしれません。後者は社会的に見て妥当な判断基準とは言いにくいものです。そこでXAIの適用によってAIを監査できるようにすることで、望ましくないAIの学習を発見し、防止することが可能になります。

XAI の実現に向けて、いくつかの基本的なアプローチがあります。一つは、AIが注目するデータを特定する方法です。例えば、画像認識AIを適用する際には、まず認識対象となる画像の一部分だけを切り取り、認識させます。そして他の部分も認識させ、それぞれ画像全体を認識した場合の判断とどの程度変わるかを確認します。これにより、判断の対象となるデータの中の、どの部分にAIが注目しているかを示せます。もう一つは、AIを複数のAIに分割する手法です。例えば、工場設備の状態を認識し、将来起こりうる故障を予知するケースを考えます。この際、状態の認識から故障時期の予測までまとめて1つのAIで処理せず、あえて認識するAIと予測するAIの2つに分割します。こうした2段階での処理に分けることで、まとめて処理する場合よりも説明可能性が確保されます。しかし、このような分割はある程度、精度を犠牲にするため、精度を必要以上に落とさない分割を実現するための設計力が問われてきます。


これらアプローチの上で、明瞭な意思決定ポリシーに基づくAIを構築することで、AIは途中経過における説明も、事後による検証も可能になります。AIを用いた安全性と信頼性の高い社会基盤の構築のために、説明可能性をAIに求めるニーズは増えています。その要請に応えるべく XAI の開発や実システムへの導入の試みも広がっていくでしょう。あわせて説明可能性に乏しいAIをリプレイスしていく動きも進みます。企業においては、XAIの社会的意義と必要性、実務的な価値を認識して、適用へと歩みを進めていくべきです。

D-NNOVATIONスペシャルサイト

社会課題の解決に向けたプロフェッショナルたちの物語や視点を発信しています

プロフェッショナル

森 正弥/Masaya Mori

森 正弥/Masaya Mori

デロイト トーマツ コンサルティング 執行役員

Deloitte AI Institute 所長 アジア太平洋地域 先端技術領域リーダー グローバル エマージング・テクノロジー・カウンシル メンバー 外資系コンサルティング会社、グローバルインターネット企業を経て現職。 ECや金融における先端技術を活用した新規事業創出、大規模組織マネジメントに従事。世界各国の研究開発を指揮していた経験からDX立案・遂行、ビッグデータ、AI、IoT、5Gのビジネス活用に強みを持つ。CDO直下の1200人規模のDX組織構築・推進の実績を有する。 東北大学 特任教授。東京大学 協創プラットフォーム開発 顧問。日本ディープラーニング協会 顧問。過去に、情報処理学会アドバイザリーボード、経済産業省技術開発プロジェクト評価委員、CIO育成委員会委員等を歴任。 著書に『ウェブ大変化 パワーシフトの始まり』(近代セールス社)、『両極化時代のデジタル経営』(共著:ダイヤモンド社)、『パワー・オブ・トラスト 未来を拓く企業の条件』(共著:ダイヤモンド社)がある。 記事:Deloitte AI Institute 「開かれた社会へ:ダイバーシティとインクルージョンの手段としてのAI」 関連ページ Deloitte AI Institute >> オンラインフォームよりお問い合わせ