Posted: Oct 21, 2019 3 min. read

「AIの倫理」ってナンだ?(前編)~人間とAI双方に求められる信頼性~

「おっと、通行止めか。」
「手前の交差点まで戻って左行っていただけますか。ちょっと狭いんですけど。その後、道なりで大丈夫です。」
「すいませんね。普段こっちのほうまで来ないもので。」

これは、先日終電を逃してタクシー帰りをした際の運転手との会話です。横浜の住宅街は急斜面や狭い道が多く、夜は灯りが十分でないところもあるため、タクシーの運転手でも運転が難しいことが多いそうです。ふと、「タクシーが自動運転車になったら、道に迷ってもちゃんと帰れるのかな?」と頭に浮かびました。

 

AIの社会実装が加速的に進む一方で、倫理に係る問題が発生しています。「AIスピーカーが誤って外部に家庭の会話を送信した」「人事採用のAIが女性蔑視と疑われる判断を行った」等インシデントが起こり、AI自体の公平性・プライバシー・透明性といった倫理面での信頼性実現が重要な論点となり、国際的な場での議論や研究開発が活発に行われています。この約1年の間でも国内外でAI倫理に係るポリシーやガイドライン等の文献が発行されました(※1)。

AI倫理に係る議論では「AI自体が実現する倫理」だけではなく、「AIの利用者が持つべき倫理」もテーマに挙げられています。総務省が策定した「AI利活用ガイドライン」(2019/8/9発行)では、AIの開発者・サービス提供者だけではなく、AIの利用者に向けた具体的な留意点が記載されています。例えば「適正利用の原則」においては、AIサービスの提供者は必要に応じて「利用者の信頼性」を確かめるべきとの内容が含まれています。

「利用者の信頼性」としては「利用者の適正な判断能力(資質)」と「利用者の倫理観(悪用しないこと)」の2つが論点となります。利用者に適正な判断能力(資質)を求める一例として、厚生労働省や日本医師会は「AIを医療に用いた際に判断の最終責任は医師にある」との考えを示しています(※2)。AIによる病の発見能力が人間を凌駕しても、専門家と認められた人間の責任によって最終的な判断が行われるべきとの考えです。

利用者が倫理を損なう問題事例として、チャットボットが悪意ある利用者との会話によって差別発言をするようになったというニュースは聞いたことがあるかもしれません。チャットボットに限らず、多くのAIサービスでは利用者からのフィードバックを新たな学習データとして用いることが考えられます。サービスの形態やリスクの大きさに寄りますが、AIサービス提供者は、自らのAIサービスが利用者によって性能劣化もしくは悪用されるリスクに備えることが求められます。(後編に続く

※1. AI倫理に係る主な文献等(外部サイト)

日本(内閣府)「人間中心のAI社会原則」
https://www8.cao.go.jp/cstp/aigensoku.pdf

日本(総務省)「AI利活用ガイドライン」 http://www.soumu.go.jp/main_content/000637097.pdf

G20「G20 AI Principles」
https://g20.org/pdf/documents/en/annex_08.pdf

OECD「Recommendation of the Council on Artificial Intelligence」
https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0449

EU(European Commission)「Ethics Guideline for Trustworthy AI」 https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai

IEEE「Ethically Aligned Design」
https://standards.ieee.org/content/dam/ieee-standards/standards/web/documents/other/ead1e.pdf

中国「Beijing AI Principles」
https://www.baai.ac.cn/blog/beijing-ai-principles

シンガポール「DISCUSSION PAPER ON ARTIFICIAL INTELLIGENCE (AI) AND PERSONAL DATA」
https://www.pdpc.gov.sg/-/media/Files/PDPC/PDF-Files/Resource-for-Organisation/AI/Discussion-Paper-on-AI-and-PD---050618.pdf

オーストラリア「ARTIFICIAL INTELLIGENCE: AUSTRALIA'S ETHICS FRAMEWORK」
https://www.bsa.org/files/policy-filings/05312019bsacommentsonaustraliasaiethicsframework.pdf

ドバイ政府(Smart Dubai Initiative)「ARTIFICIAL INTELLIGENCE PRINCIPLES & ETHICS」
https://www.smartdubai.ae/initiatives/ai-principles-ethics

 

※2. 厚生労働省「第4回保健医療分野AI開発加速コンソーシアム」(外部サイト)

https://www.mhlw.go.jp/stf/shingi2/0000148680_00005.html

D-NNOVATION スペシャルサイト

社会課題の解決に向けたプロフェッショナルたちの物語や視点を発信しています

プロフェッショナル

松本 敬史/Takashi Matsumoto

松本 敬史/Takashi Matsumoto

デロイト トーマツ グループ マネジャー

有限責任監査法人トーマツ リスクアドバイザリー所属。建設業向けERPのSIerを経て、2013年に入社。入社後は会計監査におけるシステム監査主任として、ITの内部統制評価、データ分析によるリスク評価、及び監査・税務の領域でのデータアナリティクス活用に係るアドバイザリー業務に従事。現在は外部機関と連携しながら、AI倫理・ガバナンス評価の研究・開発を進めている。