第10回 AIとプライバシー ブックマークが追加されました
本連載では、AIのビジネス導入に欠かせない、AIのリスク対策「AIガバナンス」に係る多岐にわたるトピックについて詳しく紹介していきます。第10回の本記事では「AIとプライバシー」について解説します。
昨年末、EU加盟国の当局が、生成AIの開発・提供者に対して、データ保護規制(GDPR)の違反を理由に高額の制裁金を科したと公表しました。その執行にあたり当局は、開発・提供者が十分な法的根拠を持たずに生成AIの学習データに個人データを利用し、データ主体(本人)に対する透明性の原則に違反したと指摘しています。また、日本においても、生成AIの利用に関し、個人情報保護委員会が注意喚起を公表(※1)しており、生成AIを利用する事業者において、個人情報の利用目的等を踏まえたプロンプト入力に関し、留意事項が示されています。AIには、その開発、提供および利用の各局面で、個人情報の漏えいや不適切な入出力等により本人の差別や不利益、精神的・経済的損害を生じさせるプライバシーのリスクが想定されます。こうしたリスクには、例えば具体的に次のようなものが挙げられます。
ひとたびこうしたリスクが顕在化した場合は、当局による執行が行われる、またはご本人の権利や財産が損なわれるおそれが見込まれることから、コンプライアンス・レピュテーションの観点で、AIにかかわるプライバシーのリスク対策を適切に講じておくことが企業において重要になっています。
プライバシーのリスク対策に関して、昨年総務省・経産省より公表された「AI事業者ガイドライン」(※2)では、AIにかかわる事業者は、プライバシー保護について、特に次の点を取り組むべきとされています。
上記Aの「共通の指針」で述べられている「関連法令の遵守」にかかわる規制としては、日本の個人情報保護法がまず挙げられますが、外国人の情報が取り扱われるケース等、場合によっては海外における類似の規制への対応も求められる場合があります。こうした規制は個々にその内容が異なるためケースごとに該当する規制を識別したうえで対応を検討することになりますが、一般的には次の事項への対応が挙げられます。
【個人情報を取り扱う際の原則(目的明確化の原則、利用制限の原則、収集制限の原則等)の順守】
予め利用目的を特定し、その範囲内で個人情報を取り扱うほか、適法・公正な手段で収集されること等が求められます。
【利用目的等の本人への通知】
利用目的や個人情報の取扱いにかかわる情報を本人に通知することが求められています。
【取扱いにあたっての根拠の明確化】
規制によっては、個人情報を取り扱うための、法的根拠(契約の履行や法令の要請等)を示すことが必要になります。
【必要に応じた本人からの同意取得】
第三者に個人情報を提供する、プロファイリング(個人の評価や分析、予測等に関する自動処理)を行う等、特定のケースにおいては、本人の同意を必要とすることがあります。
【機微な情報の取扱いにおける制約】
本人の人種、信条、社会的身分、病歴、犯罪の経歴等、本人に対する不当な差別や不利益が生じるおそれがある情報については、そうでない情報と比べて、追加的な義務が規定されている場合があります。
【取扱いに関する記録の作成】
どのような個人情報の取扱いがあるか、どのように第三者への提供が行われているか等、記録を作成することが求められます。
【越境移転における保護措置の導入】
国境を跨いでデータが移転される場合には、追加的な保護措置が必要な場合があります。例えば、利用するAIが外国にあるサーバにおいて運用されている際には、日本においてプロンプトが入力される場合でも、データの越境移転が発生している可能性があるため、AIの事業者とデータ移転契約を結ぶといった対応が必要かもしれません。
【本人からの請求への対応】
本人からデータの開示や訂正等が求められた場合には、原則それらに応じなくてはなりません。そうした求めに対し適切に対応するため、請求の受付やシステム上の処理等に関しプロセスを構築しておくことも重要になります。
【安全管理措置の導入】
漏えいや改ざん等の対策に関し、セキュリティの観点で、規程類を整備するほか、組織的、人的、物理的、技術的な措置を導入することも求められます。
表中Bの「開発者に関する事項」にある、「プライバシー・バイ・デザイン」はプライバシー保護のための重要な概念で、ビジネスプラクティスやシステムの企画・設計段階から予めプライバシー保護の取り組みを検討し実践することとされています。プライバシー・バイ・デザインの実装においては、例えばPIA (Privacy Impact Assessment:プライバシー影響評価)と呼ばれるプライバシーのリスク評価の活用が挙げられます。PIAを活用したリスク管理では、個人にかかわる情報を取り扱うにあたって、事前にリスク評価を行い、リスクが適切に軽減されていることが確かめられたときにその取扱いが認められるといったプロセスが導入されます。PIAに関しては、国際的な規格であるISO/IEC 29134:2017(日本ではJISX9251:2021)が公表されており、評価プロセスや評価の観点等、PIAの整備・運用を検討する際の参考になります。こうしたプライバシー・バイ・デザインの取り組みは、AIの開発者だけでなく、提供者や利用者においてもプライバシー保護にあたって重要になります。また、「データのアクセスを管理するデータ管理・制限」に関しては、個人情報にアクセスが認められる要員を限定するためのルール・手続きやITシステム上の仕組み等が求められます。
テクノロジーが進歩し、新しいデータの利活用が開発される中、プライバシーが侵害されるケースが度々見られています。表中Cの「提供者に関する事項」での「プライバシー侵害に関する情報収集」については、そうした侵害のケースに関する情報に関し、当局やプライバシー・セキュリティに関する組織等が公表している情報のほか、業界内等の第三者から情報を入手し、状況に応じて自社での対策を検討することが挙げられます。
表中Dの「利用者に関する事項」にある「個人情報の不適切入力」については、AIを利用する企業において、AI利用に関するリスクやその対策に関し、要員に十分な周知・教育を行うことのほか、AIプロンプト入力のリアルタイムチェックを行うツールを導入することも考えられます。また、不適切な入力の防止には、個人情報を匿名加工・仮名加工する、PETs(Privacy-Enhancing Technologies:プライバシー強化技術)を活用する等、一定の処理を行うことにより、プライバシーのリスクを軽減するといった対策も有効と考えられます。
AIを使ったデータ利活用が広まることで、プライバシーがどのように保護されるか、AIの開発、提供、利用のそれぞれでリスク対策が求められています。こうしたリスク対策には、まず関連する法令に対応することが必要になりますが、さまざまなデータ利活用が登場する中、そうした法令を遵守するだけでは、必ずしも十分とは言えないことも考えられます。データの取扱い状況を踏まえ、ルール・手続きや組織、ITシステムを含めた多面的なアプローチでプライバシーにかかわるガバナンスの在り方を検討することが重要になっています。
以上、本連載第10回では、AIとプライバシーと題して、AIの開発や提供、利用におけるプライバシー保護について紹介しました。次回の連載では、AIセキュリティについて発信する予定です。
デロイト トーマツではAIガバナンスに関して様々な知見を発信しております。AIガバナンスの策定・実行を支援するサービスも提供しておりますので、下記のページよりお気軽にお問い合わせください。
大場 敏行
デロイト トーマツ サイバー合同会社 マネージングディレクター
参考
※1 「生成 AI サービスの利用に関する注意喚起等」 個人情報保護委員会
https://www.ppc.go.jp/files/pdf/230602_alert_generative_AI_service.pdf
※2 「AI事業者ガイドライン(第1.01版)」 総務省・経済産業省
https://www.meti.go.jp/shingikai/mono_info_service/ai_shakai_jisso/pdf/20241122_1.pdf
サイバーセキュリティ、プライバシー・個人情報保護に関するリスクコンサルティングに10年以上従事している。特に最近では、個人情報保護法、マイナンバー、GDPR、CCPA等を踏まえたデータ保護関連のアドバイザリー業務をさまざまな業界・業種に提供している。 主な資格: 情報セキュリティスペシャリスト(SC) 公認情報システム監査人(CISA) 主な著書: 「自治体のための特定個人情報保護評価 実践ガイドライン」(ぎょうせい 2015年)[共著]
25年以上に渡り、統計分析や機械学習、AI導入等の多数のデータ活用業務に従事。 同時に数理モデル構築やディシジョンマネジメント領域でのソフトウエア開発、新規事業やAnalytics組織の立上げなどの経験を通じて数多くの顧客企業のビジネスを改善。 リスク管理、AML/CFT、不正検知、与信管理、債権回収、内部統制・内部監査、マーケティングなどの幅広い分野でAnalyticsプロジェクトをリードしている。