AI人工知能)の研究が活発になる中で、いわゆる「殺人ロボット」(キラーロボット)の開発に対する懸念が広がりつつある。

たとえば、韓国大学韓国科学技術院」がこのほど、AIを用いた兵器の研究センターを開設したところ、世界トップクラスの研究者から「殺人ロボットの開発につながる」という批判が起きた。

報道によると、技術院側は「ロボット兵器の開発に関わる意思はない」と表明したということだ。殺人ロボット規制するルールについて、どう考えればいいのだろうか。ロボット法にくわしい小林正啓弁護士に聞いた。

兵士民間人を区別せず攻撃するものは許されない」という事実上の合意がある

ロボット兵器には、大きく分けて、2つのタイプがあります。1つは、米軍プレデター航空機)のような、遠隔操作ロボット兵器です。もう1つは、映画ターミネーター』に出てくるような、全自ロボット兵器です。

この2つの決定的な違いは、『人間を攻撃する』か否かの決定について、人間が操作しておこなう(遠隔操作)か、ロボット自身が決定する(全自)か、にあります。

現在おこなわれている会議では、この2つが、あえて混同されているふしがありますので、注意しないといけません。典的なロボット兵器といえば、後者全自を意味します」

ロボット兵器は際的に、どういう扱いになっているのだろうか。

「自ロボット兵器というと、ターミネーターのような高度なものを想像しがちですが、実は地雷も、接触したら爆発するという、原始的で単純なロボット兵器と言えます。クラスター爆弾も、不発弾地雷と同じ危険性を有します。

こうした兵器は、兵士民間人も区別せず攻撃するため、現在は、禁止する条約が成立しています。高度自ロボット兵器も、兵士民間人を区別せず攻撃するものが許されないことについては、際的に事実上の合意があると言ってよいでしょう」

ロボット兵器について「思考停止」になりがち

それでは、ロボット兵器をめぐって、どんな論点があるのだろうか。

「問題になるのは、(1)敵味方の兵士や、兵士民間人を的確に区別して、交戦規定(Rules of Engagement)を遵守するロボット兵器であれば、容認できるのか、(2)容認できるとして、そのロボットが誤って民間人を攻撃したり、降伏してきた敵兵を攻撃したりした場合、責任を負うか――という点です。

現代の戦争は、軍服を着た兵士同士が見通しのきく戦場で戦うものではなく、ゲリラ戦や戦が流になりつつあるので、敵味方の区別や、兵士民間人の区別が非常に難しくなっているからです」

ロボット兵器はすべて禁止にすべきではないのか。

「実は、国連における専門会議では、全自ロボット兵器は、戦場3DDull・退屈、Dangerous・危険、Dirty・汚い)を軽減して、自兵士の命を救うものとして、積極的な評価を受けている点もあります。

われわれ日本人は、ロボット兵器と聞くだけで『禁止すべき』と短絡的に考えがちですが、国連での議論を理解するためには、思考停止に陥らないことが肝要です」

弁護士ドットコムニュース

【取材協弁護士
小林 正啓(こばやし・まさひろ)弁護士
1992年弁護士登録。ヒューマノイドロボットの安全性の問題と、ネットワークロボットや防犯カメラ・監視カメラとプライバシー権との調整問題に取り組む。
事務所名:花水木法律事務所
事務所URLhttp://www.hanamizukilaw.jp/

殺人ロボット「とにかく禁止」は短絡的?「敵味方の区別難しい」現代戦争での論点