今、AIがさまざまな分野で注目を集めています。自動運転や音声認識、人間を打ち負かすようなAI囲碁プレイヤーなど、AIを活用したモノやサービスが続々と登場していますが、世の中にAIが浸透すればするほど、法的、倫理的な観点による課題も浮き彫りになっています。

【その他の画像】

 総務省内閣府でAIのガイドライン作りに携わった中央大学の平野晋教授(国際情報学部)は、現状のAIには“減らすべき性質”があるといいます。詳しい話を聞きました。

●減らすべきは「不透明性」「制御不可能性」「データに左右される特性」

 平野教授は、AIやAIを載せたロボットの「不透明性」や「制御不可能性」「データに左右される特性」が課題だと言います。

 AIは学習したデータを基に考え、さまざまな課題について自律的に判断します。しかし、AIの多くは、なぜその判断を下したのかを自身で説明できませんでした。この「判断は下せるが理由は説明できない」という性質を「不透明性」と呼びます。

 例えば、就活生のエントリーシートを読んで、採用するかどうかを判断するAIを考えてみましょう。AIは過去のエントリーシートや採用情報などから学習したロジックを基に、今読んでいるエントリーシートを書いた人を採用するべきかどうか考えます。

 ところが、AIはその合否を下した理由を人間が分かるように説明できない恐れがあるのです。就活生がなぜ不採用になったのかと尋ねてきても、企業側が「理由は分からないが、AIが不採用だと判断したから」としか説明できないというのは問題です。

 理由が説明できないとなると、AIが何か間違った判断をしたときにも、なぜ間違ったかを探りにくくなってしまいます。どこで間違うのか分からなければ、AIを活用した製品やサービスを改善しようにもどこを直せば良いか分からないですし、法的な責任を問うための証拠も見つけられません。

 AIがコントロールする自動運転車が、ハンドルを切り間違えて人をひいてしまったとしましょう。このとき、なぜAIが間違った方向にハンドルを切るように判断したのかが分からなければ、乗っていた人、AIを開発した人、自動車を組み立てた人、学習用のデータを提供した人などのうちの誰が非難されるべきか、どこに責任があるのかを証明する証拠を示せません。被害者はなぜ車にひかれたのかも分からず泣き寝入りになってしまいます。

 「特に、個人の人生に大きくかかわる場合には、判断の理由を示せることが重要になる」と平野教授は言います。娯楽品なら、AIがどう考えるのかが分からなくても、致命的な問題にはなりません。しかし、理由も分からず就職に失敗する、事故に遭うといったことが起こるのは問題です。

 これは「ブラック・ボックス問題」と呼ぶこともあります。最近では、判断の理由を説明できる「説明可能なAI」(explainable AI)に注目が集まり、開発が盛んになってきています。

●人間が行動をコントロールできない「制御不可能性」

 AIを載せたロボットは、人間が最終的なコントロールをできるものとできないものに分けられます。まずはAIを載せたロボットがどのような流れで行動するのかをまとめてみましょう。

 ロボットは、カメラセンサーを使って周りの状況を認識し (snese)、AIが学んだデータを基に状況を分析して、とるべき行動を考えます(think)。結論が出たら、それをロボットが行動に移す(act)のです。

 自動運転車を例に具体的に見てみましょう。自動運転車はカメラレーダーを使って周りの様子を取り込み人や障害物の位置を認識します(sense)。取り込んだ情報と学んだデータを照らし合わせて、ハンドルを切ってよけたりブレーキを利かせたりすべきだと判断し(think)、実際にハンドルを切ったりブレーキを利かせたりします(act)。

 この流れをそのまま「sense-think-act cycle」と呼びますが、ロボットの強みはこのサイクルを人より正確に速く回せるところにあるといえるでしょう。この輪の中に人が入り、最終的にロボットコントロールできるような状態を「Human-in-the Loop」と言ったり、逆に全く人が入れないような状態を「Human-out-of-the Loop」と言ったりします。

 例えば、患者の診療データを見て、最適な治療方法を考えるAIを載せたロボットを考えてみましょう。AIが似た症状の患者の病名や治療方法など、多くのデータを基に最適な治療方法を医師に提案しますが、実際に最終判断を下して治療するのは医師だとします。この場合、ロボットが目の前にいる患者の診療データをとって認識し(sense)、AIが学習したデータを基に治療法を考えて提案します(think)が、最終的に判断して治療する(act)のは人間なので、これはHuman-in-the Loopです。もし間違った治療方法をロボットから提案されても、治療する医師が間違いに気付けば、間違った治療は行われません。

 逆に、もし最終判断も実際の治療行為もロボット側に全て任せて、人間が治療方法に口を出せないと、治療方法が間違っていてもそのまま治療が続けられてしまいます。AIを搭載したロボットには、開発者の想定とは違う、誤った判断を下す危険性があるといわれています。「制御不可能性」は特にHuman-out-of-the Loopにおいて問題になるのです。

 人がコントロールできるか全くできないかという両極端の間には「Human-on-the Loop」という状態もあります。これは、基本的にロボットに全て任せるが、人が監視していて緊急時には介入できるというものです。自動運転レベル3の自動運転車とは、基本的にシステム側が自律的に車を動かすが、万が一のときには人間がハンドルを切ったりブレーキを踏んだりしてコントロールできるような自動運転車のことをいいます。人間が監視し、緊急時にはコントロールできる仕組みなので、これはHuman-on-the Loopです。

 ただし、設計上はコントロールできるような仕組みになっているとしても、実質的にはコントロールできないような仕組みは問題です。AIが考える速さは基本的に人よりも速いのです。人間の監視の下、市場を見て1秒の間に何回も株取引するAIを考えてみましょう。

 もしAIが株を買うと決めてから実際に買うまでに数秒間のタイムラグがあれば、明らかに不都合な株を買おうとしていたとしても人間が止められるかもしれません。しかし、1秒間に何回も株取引をするようでは、人間の判断スピードでは追い付けないでしょう。

データに左右される特性

 最近では、AIには差別的な判断をする可能性があるという弱点があることも指摘されるようになりました。学習に使うデータに差別や偏見が多く含まれると、AIも影響されてしまうのです。

 ある企業のCEOにふさわしい人を推薦するAIを考えてみましょう。例えばこのAIが「50代以上の白人男性」ばかりを推薦したとします。AIに学習させたデータに白人男性をCEO採用した例が多かった場合、このように判断に偏りが出ることもあります。

 「これまで女性や白人以外の人種がCEOに選ばれる機会が不当に奪われていた社会の事実を考えれば、女性や白人以外がCEOに望ましくないというAIの判断は正しくないでしょう。このように、AIに正しい判断を下してもらうためには、学習するデータの質が重要であることも、私たちは理解しなければなりません」(平野教授)

●何もかも法で規制すれば良いというわけではない

 このように、AIにはまだ課題が幾つかありますが、平野教授は今の時点で何もかも法律で取り締まろうという姿勢は問題だと言います。AIは社会の問題を解決するために大いに役立つ技術です。これからまだまだ進化していく段階で厳しい規制をかけ過ぎると、罰則や損害賠償などを恐れた技術者たちの開発を邪魔してしまうことになりかねません。また、法律として固めてしまうと、日々進化する技術に柔軟に対応できなくなってしまうというデメリットも出てくるといいます。

 「AIに限らず技術の進歩は速いのです。最近では米マイクロソフトの対話AI『Tay』が差別的な発言をしたという例も出てきて、AI自体の設計だけでなく、AIにどのようなデータを学習させるべきかという点への配慮も重視されるようになりました。技術の進歩に柔軟に対応するためには、法的強制力はないが、社会的に守るべきだとされるガイドラインや指針、原則を作り、活用していくべきです」(平野教授)

中央大学国際情報学部の平野晋教授