Posted: 08 Aug. 2024 8 min. read

【開催レポート】生成AIの戦略的活用の最前線

「攻め」の活用と「守り」のリスク対策

2024年5月9日に「生成AIの戦略的活用の最前線 ~「攻め」の活用と「守り」のリスク対策~」を開催しました。本ウェビナーでは、日常的に生成AIのビジネス導入に接するデロイト トーマツ グループのAI研究ネットワークであるDeloitte AI Instituteのメンバーに加え、「攻め」「守り」の観点でそれぞれご活躍を見せるnote株式会社深津貴之氏とRobust Intelligence Inc.平田泰一氏をゲストに迎え、生成AIという革新的な技術の可能性を多くの方々に正しく認識していただくことを目的に、3つのテーマで講演とディスカッションを行いました。 

テーマ①「攻め」:生成AI活用の最前線
(話題提供:デロイト トーマツ リスクアドバイザリー合同会社 山本 優樹) 

テーマ②「守り」:生成AIのリスクに対するシステム的・人的対策の最新動向
(話題提供:Robust Intelligence Inc. 平田 泰一 氏) 

テーマ③「攻め+守り」:生成AIを用いたリスク対策の可能性
(話題提供:デロイト トーマツ コンサルティング合同会社 松本 敬史) 

パネリスト:note株式会社 深津 貴之 氏、デロイト トーマツ リスクアドバイザリー合同会社 原嶋 瞭 

本記事では、ウェビナー内容の要約をお届けします。

上段左から、デロイト トーマツ 山本 優樹、松本 敬史、原嶋 瞭
下段左から、note 深津 貴之氏、Robust Intelligence 平田 泰一氏 

 

【テーマ①「攻め」:生成AI活用の最前線】

テーマ①「攻め」の話題提供者は、デロイト トーマツ リスクアドバイザリー合同会社の山本優樹です。

山本は、生成AIの攻め(活用)の面について詳述しました。まず、従来のAI技術と生成AI技術の違いは、用途の自由度の高さだと説明しました。生成AIは言葉を入出力とすることで振る舞いを柔軟にコントロールできる点が画期的であり、ほぼすべての生活や業務に応用可能であると強調しました。特に、言葉を使って誰でも簡単にAIを操作できるため、専門家でなくても様々なユースケースの検討や評価が行えるようになり、AI活用の幅が大きく広がったと述べました。

次に、企業での生成AI活用の事例を紹介し、特に「RAG」(Retrieval-Augmented Generation)技術の重要性を語りました。ただし、ユースケースごとにRAGの性能を高める手法が異なるため、効果的な活用にはユースケースの深い理解と生成AI技術の知見との両方を併せ持った専門家が必要である一方で、そのような専門家が不足している点が課題だと指摘しました。そして、その課題に対応するための、専門家の業務効率化に寄与する汎用的な機能を備えたPoC用アプリケーションの開発による解決策を、デモと共に紹介しました。そこでは、生成AIと論文データベースを用いた技術調査を例にとり、様々なRAG手法を画面上で切り替えながら検索・傾向分析・アイデア創発など複数のユースケースを効率化に実行するという最前線の活用方法が紹介しました。

山本からの話題提供の後、パネリスト一同が生成AIの「攻め」について議論しました。

パネリスト一同は、複数人のアバターを対話させる試みがシステム化されている山本のデモに関心をもちつつ、そのシステムにファシリテーター役の別アバターを追加することで、討論がより円滑に進むのではないかという提案がありました。

また、生成AIは遊びながら学ぶということが効果的であるということに言及され、新しいアイデアの発想方法やユニークな使い方が議論されました。そこでは、経験のないことを試したい、人的リソース不足を補いたいというモチベーションから発想することが挙げられました。ユニークな使い方としては、複数人格での対話や、危機的状況を設定して行うペアプログラミングなどが示しました。

さらに、生成AIを用いたデジタルツインにAIガバナンスのケーススタディを実施させる活動が紹介され、生成AIの新たな活用方法が議論されました。デジタルツインが毎日記事を配信する中で、RAGで無関係な情報を引用してしまう課題についても言及しました。

 

【テーマ②「守り」:生成AIのリスクに対するシステム的・人的対策の最新動向】

テーマ②「守り」の話題提供者は、Robust Intelligence Inc.の平田泰一氏です。

平田氏は、AIのビジネス活用にはリスク管理が重要であり、ルールとガイドラインの整備が必要であり、リスク管理の実現に向けてはソリューションの活用が重要と説明しました。例えば海外の活用事例として、金融や旅行、IT業界の企業が生成AIを用いて顧客体験の改善を図っていること、日本の活用事例として、保険やHRでシステムを導入するなど、既に国内外で様々な事例があることを紹介しました。また、ルールやガイドラインの国際的な動向として、アメリカの大統領令や、EUのAI Act、日本のAI事業者ガイドラインを紹介しました。

さらに、生成AIによる情報漏洩や差別的な回答といった生成AIを活用するうえでのリスクも指摘し、これらのリスクを管理する必要性が述べました。ここで、実際に生成AI活用上のリスクを発見するデモが紹介しました。デモでは、生成AIのリスクが自動検出されるツールを用いて、生成AIへの入力を1文字変えるだけで誤情報を出力したり、不正なリンクを提示したりする現象が示されました。このような事例を踏まえ、改めてシステム的・人的な生成AIのリスク対策の重要性を強調しました。

平田氏からの話題提供の後、パネリスト一同が生成AIの「守り」について議論しました。

以前までは専門家がAIを使用していたのに対し、一般社員までが生成AIを使用するようになり、関わるステークホルダーが増えたことに触れられました。以前のAIリスクと比べ、生成AIのリスクは質的・量的に無限大であり、企業は新たなリスク管理を手法や枠組みが構築する必要があるという見解が述べました。

次に、生成AIの登場に伴い、技術的な知見がない人でもAIが使用できる状況が生まれていることに言及しました。従来では企業向けのAIガイドライン作成が主な取り組みでしたが、今後は一般の社会人や高齢者などに対しても、AIを正しく使うための教育が必要であるという意見がありました。

また、リスクを気にしてAIを使わないという判断をする方が多いという現状を踏まえ、注意すべきAIリスクについて議論されました。議論では、実害を伴う問題か心の問題かを切り分けるべきであり、後者の場合は解決しないことが多いことが指摘されました。生成AIは確率で動くものであり、100%の安全は不可能であるため、最初からミスを織り込んだ設計を行い、ミスが起きても問題にならない設計や用途を推奨するという意見が述べられました。

 

【テーマ③「攻め+守り」:生成AIを用いたリスク対策の可能性】

テーマ③「攻め+守り」の話題提供者は、デロイト トーマツ コンサルティング合同会社の松本敬史です。

松本は生成AIを通常のチャットボットとして使用する以外にも、応用的な受け答えが可能であることを説明しました。多くの生成AIでは、システムプロンプトとして特定の人物やスタイルを設定することで、AIがその人物のように振る舞うという手法が使用できます。その実例として、松本自身が作成した「デジタルMatsumoto」という生成AIアプリケーションを紹介しました。このAIは松本の過去の文献やウェビナーでの発言、メモなどを学習しており、松本風の考察や記事を生成します。

デジタルMatsumotoは自分を模倣して自動的に発言するので、時には自分が意図しない文章となっている可能性があるなど、リスクを秘めたアプリケーションです。そこでデジタルMatsumotoでは、生成された内容を別の生成AIを用いて五段階評価でチェックし、暴力的または攻撃的な内容がないか等を確認しています。このリスク評価プロセスを「エシカルチェック」と呼んでおり、このようなリスク管理プロセスの重要性を説きました。エシカルチェックのようなAIアシスト型のリスク管理により、仕事の負荷を軽減しつつ質の高いアウトプットを得ることが可能になるのではないかと、攻め+守りの可能性を示唆しました。

松本からの話題提供の後、パネリスト一同が生成AIの「攻め+守り」について議論しました。

ここでは、生成AIを用いたAIリスク対策について議論を行いました。まず、リスクチェーンモデルというリスク対策のフレームワークをAIに実行させたメリットについて質問があり、業務が2週間から1~2日間に効率化されたことが紹介しました。また、生成AIの出力を人間が評価し、修正した結果を生成AIに学習させることで、精度向上とリスク低減を狙えることが示されました。ただし、依然として生成AI側には低品質な出力やサービス停止、人間側にはAIへの依存などのリスクがあることが指摘しました。

次に、現在提供中のリスク対策ツールの検査対象に生成AIを取り入れることが検討されており、日々研究されている点に言及しました。生成AIに様々な角度から質問を投げかけると多くのリスクが発現することが判明しており、それを一連のテストとしてレッドチーミングを自動的に実施する方法を検討していることが紹介しました。

また、生成AIが出した結果が本当に正しいのかを判断するためにも、人間の評価の重要性が強調されました。多くの企業は人手とツールを併用してリスク対策を行っており、中でも事業部・リスク管理・法務・コンプライアンスなど多様な担当者がAIガバナンスに関わることで、様々な角度からリスクを発見できると述べました。

デジタルヒューマンの社会浸透についても触れられ、バックエンドに生成AIを使用し、フロントエンドは別の技術を使用するなど、コストとレスポンスの課題がクリアされたアプリケーションであれば浸透するだろうという見解が示しました。

 

最後に、デジタルMatsumotoの改善案を議論しました。現在の生成AIで作られた人格はほとんどがパッシブで動作するため、アクティブ化して自動的に様々なものをウォッチして、生成AIから話しかけてくるようになると、エージェントの価値が大きく変わることが示唆しました。また、改善の失敗例として、あるスポーツ選手の記事を書いた際、自身の落語に関するパーソナリティと混ざり、「選手は落語でコミュニケーションを鍛えた」という内容になってしまったことが紹介されました。失敗を防ぐためには、参照元を明確にするなどの対策が必要だと結びました。

 

文責:デロイト トーマツ リスクアドバイザリー合同会社 原嶋 瞭