ビジネスや社会生活にAIが急速に普及するのに伴い、AIに関する倫理やガバナンスが注目を集めている。本連載では、Deloitte AI Instituteのグローバルリーダーが著した『信頼できるAIへのアプローチ』(ビーナ・アマナス著、森正弥・神津友武監訳/共立出版)より、内容の一部を抜粋・再編集。AIに潜む落とし穴、積極的に利用するために必要なリスク管理、そしてAIをいかに信頼できるものとして活用していくかを探る。

JBpressですべての写真や図表を見る

 第5回目は、AI導入に人間の介入と判断が欠かせない理由、そしてビジネスリーダーとデータサイエンティストが果たすべき責任について解説する。

<連載ラインアップ>
第1回 Deloitte AI Instituteのグローバルリーダーが考える「信頼できるAI」とは?
第2回 AIに履歴書を読み込ませれば、優秀な人材を本当に素早く選び出せるか?
第3回 バイアスのあるデータで学習したAIが、ビジネスに与える深刻な影響とは?
第4回 CEOは男性、秘書は女性?なぜ人間が作るデータにバイアスがかかるのか?
■第5回 AIを使うべきか使わぬべきか、リーダーとデータサイエンティストの責任とは?(本稿)

※公開予定日は変更になる可能性がございます。この機会にフォロー機能をご利用ください。

<著者フォロー機能のご案内>
無料会員に登録すれば、本記事の下部にある著者プロフィール欄から著者フォローできます。
●フォローした著者の記事は、マイページから簡単に確認できるようになります。
会員登録(無料)はこちらから

■公平性におけるトレードオフ

 バイアスが存在しうるデータを用いると、アルゴリズム上に1つのトレードオフが出現します。例えば、データの質が良くなればなるほど、AIの精度は高くなりえます。しかし一方で、そのデータによって不公平な判断をしてしまう可能性も高くなります。

 人種に対するバイアスが内在するデータで学習させたAIツールは、あたかも現実世界を完全に再現するかのように、人種差別をする可能性があり、同時に半永久的にそのようなバイアスをはらみ続ける可能性も高くなります。

 一方で、すべてのグループに対し同じような結果を出力するAIを追求する際は、私たちはデータの分散を小さくすれば十分なのです。そうすれば、AIの精度は低くなりますが、均一性としての精度は高くなります。これは単純な例であり、公平性に関わるバイアスの種類が増えればさらに複雑になるので、トレードオフを考慮するとすべてのバイアスを軽減させることは不可能だという研究結果もあります9

 このことを踏まえると機械学習にはバイアスが必ず存在してしまうように思われるかもしれませんが、それは必ずしも悪いことではありません。

 例えば、男性よりも女性の方が多く発症する乳がんのリスクを生体データから判断するAIツールをイメージしてみてください。この場合、公平性を確保しようとしてAIが性別に依らずにリスクを判断できるようデータセットを調整することに意味はありません。この事例において、性別はリスクをスコアリングするために必要不可欠な要素であるのです。

 この事例を通して、AIには人間の介入と判断が重要であるということがわかります。すなわち、アルゴリズムが大量で複雑な計算を行い、その結果をもとに人間が意思決定すればよいのです。

 ただし、その際にAI開発の中で公平性とは何かを論じ、今あるAIの出力がどの程度公平であるのか、あるいは公平だと信じられるのか、という根本的な問いに答えることはほぼ不可能です。

 これらについて議論する必要があるならば、AI開発時にはデータサイエンティストだけでなく、倫理学者や公平性についての専門家など、様々なステークホルダを集めなければなりません。

9. Jon Kleinberg, Sendhil Mullainathan, and Manish Raghavan, “Inherent Tradeoffs in the  Fair Determination of Risk Scores,”Proceedings of the 8th Conference on Innovations in Theoretical Computer Science(2016)https://arxiv.org/abs/1609.05807. 

 公平性という概念は決して白黒つけられるものではありませんが、一部のユースケースでは他のユースケースと比べて公平性を担保することがより重要になる場合があります。

 例えば、サプライチェーンを効率化するAIツールにおいては、公平性はそれほど重要ではないと考えられます。しかし、ローン、保険、各種社会サービス、教育機会など、人々の生活に直接影響を与えるようなサービスにおいては、公平性を担保することは極めて重要なことです10

 個々のユースケースに対し公平性の担保をすべきかどうかを判断することは人間の仕事であり、公平性が欠如することで生じるリスクがAIを導入することによって生まれる利益を上回る場合は、そのAIを使用するかどうかについて企業による意思決定が求められます。

 その際、AIの倫理ではなく、AIを検討・設計・構築・運用を行う人々の倫理がますます注目されます。しかし、このような倫理的問題を解決することはデータサイエンティストにとっては少し責任が大きいかもしれません。彼らは計算の世界で仕事をしているため、倫理的な問題に対し重要な判断を下せるほどの検討時間も知識も不足していることが多いのです。

 さらに、この問題は組織が何十、何百ものAIツールを導入すればするほど、より一層入り組んだ問題になってしまいます。

 では、組織の中で、誰が重要な判断を下すべきなのでしょうか。AI倫理最高責任者でしょうか。各ユースケースの調査を担当する委員会でしょうか。また、それぞれの業界における公平性とは何でしょうか。企業とエンドユーザーそれぞれの利益を追求するために、どのようなリスクを考慮しなければならないのでしょうか。

 データサイエンスチームにモデルの構築と倫理の遵守の両方を依頼することは、コストがかかってしまい企業にとってあまり良くない結果になりかねません。

 したがって公平性を追求するためには、ビジネスリーダーとデータサイエンティストの両方が責任を持つべきなのです。

AIの公平性チェックリスト あなたが所属する組織では、差別や偏見を防ぐために、適切なAIポリシーや内部統制を整備していますか?また、アルゴリズムが公平性を担保するためには、どのような規制が必要だと考えられますか?
  開発したアルゴリズムに、特定のグループに対する差別につながるようなバイアスがありますか?また、その差別的な扱いは、適切な説明ができるような正しい行いですか?どのようにバイアスがあることを知り、それへの対処が適切であるかチェックしますか?
  あなたが所属する組織は、AI開発に使用するデータをどのように評価・モニタリングしていますか?また、データの出典はどこですか。データは、元々の母集団を適切に反映できていますか?
 平性が担保されていないことが発覚した場合、どのように対応しますか?
  AIによる出力結果が公平であることを顧客は信用できますか?どのようにしてそれを証明しますか?
  あなたが所属する組織は、議会や規制当局、裁判所、あるいは関心を持つ一般市民の前で、AIの公平性に関わる自社の立場をどのように説明しますか?
  あなたが所属する組織は、公平性の欠如したAIによる最悪のシナリオや起こりうる風評被害について検討したことはありますか?
  あなたが所属する組織は、AIソリューションを開発・構築するサードパーティのリスクについて検討していますか?
 

10. Aaron Klein, “Reducing Bias in AI-based Financial Services,” Brookings Institution, July 10, 2020.

<連載ラインアップ>
第1回 Deloitte AI Instituteのグローバルリーダーが考える「信頼できるAI」とは?
第2回 AIに履歴書を読み込ませれば、優秀な人材を本当に素早く選び出せるか?
第3回 バイアスのあるデータで学習したAIが、ビジネスに与える深刻な影響とは?
第4回 CEOは男性、秘書は女性?なぜ人間が作るデータにバイアスがかかるのか?
■第5回 AIを使うべきか使わぬべきか、リーダーとデータサイエンティストの責任とは?(本稿)

※公開予定日は変更になる可能性がございます。この機会にフォロー機能をご利用ください。

<著者フォロー機能のご案内>
無料会員に登録すれば、本記事の下部にある著者プロフィール欄から著者フォローできます。
●フォローした著者の記事は、マイページから簡単に確認できるようになります。
会員登録(無料)はこちらから

 

[もっと知りたい!続けてお読みください →]  中内功が築き上げた日本有数の巨大企業グループ、ダイエーはなぜ転落したのか

[関連記事]

希代のプロ経営者・澤田貴司氏は日本のCVC市場をどう見ているのか?

カインズが今後もホームセンター業界のトップを走り続けそうな理由

Pcess609- stock.adobe.com