Posted: 06 Sep. 2023 3 min. read

生成AIの社会的リスクの評価・対策とビジネス導入のポイント ウェビナーレポート

2023年8月9日に「生成AIの社会的リスクの評価・対策とビジネス導入のポイント」ウェビナーを開催しました。

本ウェビナーでは、英国リヴァプール大学のダヌシカ・ボレガラ教授を迎え、生成AIの社会的バイアスが生まれる原因の把握や評価、対策する方法について講演いただきました。その後、生成AIの活用とリスク対策についてコンサルティングサービスを提供しているデロイト トーマツ グループのメンバーをパネリストに加え、企業が生成AIをより効果的に活用するためのビジネス導入とリスク対策のポイントをディスカッションしました。


本記事ではウェビナー内容の要約をお届けします。

本ウェビナーのオンデマンド配信はこちら(事前登録制)https://tohmatsu.smartseminar.jp/public/seminar/view/41036

▼講演内容

  1. 開会挨拶(森 正弥)
  2. 生成AIの社会的リスクの評価と対策(ダヌシカ・ボレガラ氏)
  3. パネルディスカッション(パネリスト:ダヌシカ・ボレガラ氏、金 英子、松本 敬史 ファシリテーター:山本 優樹)
  4. 閉会挨拶(森 正弥)

1.開会挨拶

生成AIは活用・事業展開が多岐にわたり、リスクも多様となる

本ウェビナーの開会挨拶として登壇したのは、Deloitte AI Institute(DAII) Japan所長の森正弥です。デロイト トーマツ グループが生成AIの利活用支援サービスを提供するなかで「全社導入」「業務システム刷新」「顧客対応進化」「独自LLM開発」に関する引き合いが多いことに言及しつつ、活用・事業展開が多岐にわたるため従来のAIとは異なる多様なリスクへの理解の重要性を述べました。

Deloitte AI Institute(DAII)Japan 所長 森 正弥

2.生成AIの社会的リスクの評価と対策

生成AIの社会的リスクが問題となるなか、研究の最先端では様々な評価や対策が編み出されている

本ウェビナー前半は、英国リヴァプール大学教授のダヌシカ・ボレガラ氏の講演です。生成AIには差別や偏見などの「社会的バイアス」が含まれているため、バイアスを含むコンテンツが生成されてしまうという問題を提起しました。このようなバイアスが混入する原因として、AIを含む機械学習の仕組みを例に紹介されました。そこでは、学習元として用いられるデータに対して人が正解ラベルを付与する際にバイアスが混入する可能性や、学習アルゴリズムがバイアスを助長してしまう可能性が考えられるだけではなく、生成AI利活用の中で、偏った考えが含まれるデータを繰り返し学習し、バイアスを増大させてしまう可能性にも言及しました。企業における生成AI利用時の適切なリスク対策として、ダヌシカ氏はいくつかの評価手法を提案しました。そこでは、統計の尤度を求める方法を用いてナースが女性に紐づいているかどうかを確率的に測定する手法や、対訳コーパスを用いて言語ごとの異なるバイアスを評価する手法が紹介されました。最近は、バイアスの測定手法が様々提案され、各々の性能評価比較が難しい状況にある点や、バイアスが混入されているデータを用いてバイアスを評価するといった別のアプローチも考案されていると語りました。最後に、プロンプトにバイアスを抑える指示を加えることによって、ユーザー自身によってバイアスを防げることに言及し、バイアスのない生成AIの研究のためには技術だけでなくユーザーの行動の変化も重要であると結びました。

リヴァプール大学 教授 ダヌシカ・ボレガラ氏

 

3.パネルディスカッション

後半は、デロイト トーマツ グループのメンバーをパネリストに加え、企業が生成AIをより効果的に活用するためのビジネス導入とリスク対策のポイントをディスカッションしました。ファシリテーターである山本から各パネリストに意見を伺う形で活発な議論が展開されました。

生成AIの開発者がリスク対策として取るべきアクションについて山本が問うと、ダヌシカ氏は、生成AIを開発した企業は用途に応じた公平性の基準を作り、それに基づいてバイアスを評価して公開する必要があると述べました。

次に、学習データのバイアスについて、国や地域・ビジネス領域によって異なるという山本の意見に対し、金は、例として障害者や高齢者に対する発言がネガティブとなる可能性が高いことを示す研究結果を紹介しました。また、医療に関する複数のエビデンスを集めてデータ統合する医療エビデンス合成手法を例にとり、エビデンスの出所に存在するバイアスが出力結果に影響を及ぼす可能性に示唆しました。

ユーザーがバイアスを取り除けるならば、逆にバイアスが混入する可能性もあるのではないかと問われた松本は、バイアスが必ずしも悪いとは言えず非常に難しい課題であると述べました。そして、使用している生成AIが、どの時点のどんなデータを学習したのか、サービスとしてのトレーサビリティや検証が必要であると述べました。

社会的バイアス以外のリスクについて問われると、ダヌシカ氏はインターネット検索を併用して精度を高める生成AIの出現に触れ、生成AIへのインプットが生成AIサービス提供会社やインターネット検索サービス提供会社等に自動的に送信される情報漏洩リスクを指摘しました。リスクを防ぐためには、国産の生成AIを作成して情報を国内に閉じることで、プライバシーを含めた情報を国内で守れる仕組みを構築することが重要であると述べました。

最後に、山本がダヌシカ氏へ教育への影響を問うと、教育において使わない選択肢はなく、上手な使い方を探すことが重要であり、自身の能力を超えた使い方をする際はよく考えるべきだと主張しました。

上段左から デロイト トーマツ コンサルティング合同会社 松本 敬史、有限責任監査法人トーマツ 金 英子

下段左から リヴァプール大学 教授 ダヌシカ・ボレガラ氏、有限責任監査法人トーマツ 山本 優樹

 

4.閉会挨拶

生成AIのリスクを認識してAIガバナンスを実践する

閉会挨拶としてふたたびDAII Japan所長の森正弥が登壇しました。講演やパネルディスカッションの内容をラップアップしつつ、学習データはもちろん生成AI利用者のプロンプトにもバイアスが混入している点に注意することや、生成AIを利活用する際の無意識なバイアスに対するリスク対策の必要性を論じました。

最後にデロイト トーマツ グループのAIガバナンスサービスのご紹介や生成AIのリスクを反映したリスクコントロール方法、生成AIのリスク低減と利活用のワークショップ提供などのサービスを紹介しつつ、登壇者や参加者へお礼を述べ、閉会となりました。

(文責:有限責任監査法人トーマツ 原嶋 瞭)

プロフェッショナル