去る5月1日、長年にわたってグーグルのA I開発を指導してきたコンピューター科学者、ジェフリー・ヒントン博士が、AIのリスクについて自由に発言できるようにと、同社シニア・エンジニアリング・フェローの職位を離れたこと(cnn.co.jp)は、すでに広く報じられている通りです。

JBpressですべての写真や図表を見る

 しかし、ヒントン博士の思惑を超えて、関連の議論、特に「人類にとってのAIの脅威」といった方向で、様々な脚色を施した報道が目出ちます。

 例えば、ヒントン博士のグーグル離任に少し先だって「Future of life Institute」なる団体名で表明された「AIのリスク」を煽る「公開書簡」はひどいものでした。

GPT-4より強力なAI システムの開発者は、直ちに、少なくとも6か月にわたってAI学習を『ポーズ』(停止)するように求め」ると称する内容は、見る人が見ればお話にもならない茶番に過ぎません。

 利害関係者の情報濫用で、全く感心しません。

 翻って、各国政府の反応はどうかと見るなら、例えばヒントン博士がグーグルを去る前日に公開された「G7群馬高崎デジタル・技術大臣会合・閣僚宣言」。

DFFTの推進」「責任あるAIとAIガバナンスの推進」など、絵に描いた餅が並びます。

 しかし、関係者の大半が機械学習も人工知能のリスクも何も理解しない官僚や政治家だけで作った作文であることが、ほぼバレバレの内容です。

 そういう床屋談義でなく「AIが人類社会に対して持つリスク」の本当のところはどうなのか?

 利害から中立なAI倫理の観点から、簡潔に交通整理してみましょう。

 始まる前から終わっている役人対応のお粗末

 まず先ほどの「G7群馬高崎デジタル・技術大臣会合・閣僚宣言」から、具体的に何がダメなのかチェックしてみます。

 この会合は以下の6つのテーマが議論されたことになっていました。具体的に記すと、

1:越境データ流通と信頼性のある自由なデータ流通(DFFT)の推進

2:安全で強靱なデジタルインフラ構築

3:自由でオープンなインターネットの維持・推進

4:経済社会のイノベーションと新興技術の推進

5:責任あるAIとAIガバナンスの推進

6: デジタル市場における競争政策

 だというのですが・・・。

 これら6か条の一つとして「AI」固有の事情、あるいは「大規模言語モデルLLM」に代表される「生成AI」特有のリスクを引き受ける具体的な点がありません。

 仮に「AI」とある部分を「インターネット」と書き直しても、いや極論すれば「飛脚便」に置き換えても大差のない、空疎な形式論に終始しています。

 実際、「自由でオープンな飛脚便の維持・推進」や「責任ある飛脚便と飛脚便ガバナンスの推進」だって重要であることに間違いはなく、結局のところお茶を濁しているだけ。

 政治家と官僚の技術音痴も、ことここに極まれり、空理空論に終始している。誠に残念です。

 さて、そうした「AIのリスク」に「学識経験者」としてモノ申している「ポーズ」のメッセージも、お粗末極まりないものでした。

 利害関係者を含む、アピールのためのアピール、真摯な実効性を考慮したものとはおよそ申せません。

 例えば、先ほど引用した「Future of life Institute」の公開書簡の一部を見てみましょう。

「・・・よって、私たちは、すべての AI 開発研究室に対して直ちに、少なくとも 6か月間、GPT-4よりも強力な AI システムのトレーニングを停止するように要求する」

「この『停止』には全ての主要なAI開発関係機関が含まれ、停止の状態は広く社会公開され、(本当に停止しているかの)検証も可能であるべきである」

「また、このような一時停止が(企業などによっては)すぐに実現できない場合には、各国政府が介入してモラトリアムを導入する必要がある」

(Therefore, we call on all AI labs to immediately pause for at least 6 months the training of AI systems more powerful than GPT-4. This pause should be public and verifiable, and include all key actors. If such a pause cannot be enacted quickly, governments should step in and institute a moratorium.)

 というのですが・・・。

 まずそもそも、合法的な研究開発が各社で進められているとき、政府が介入して強権的に「モラトリアム」つまりAIの学習トレーニングを停止する、いかなる法的根拠、どのような「法理」が西側の先進圏諸国にあると言うのでしょう? 

 北朝鮮や中国、ロシア、あるいはサウジアラビアなどであればまだしも、こんな暴力的な「開発停止」への介入など、先進諸国で実施できる法的根拠などあるわけがない。

 つまり、この「公開書簡」そのものが、相当な鼻薬の産物であると、眉に唾をつけて観察しなければならないことが分かるでしょう。

 こうした「情報公開」そのものが、一種の「それらしく仕組まれたフェイク」偽情報というべきであると、あえてここでは断言しておきます。

 というのも、ほかならず、ヒントン博士がグーグルを去った理由の主なものも、こうした「偽情報」の流布によって、選挙結果が左右されたりするリスクについて、自由な立場で発言できる足場を確保しておきたいからにほかなりません。

「法理」の網を超える「AI犯罪」のリスク

 例えば、以下のような生々しい状況を考えてみましょう。

 次の国政選挙、A県B選挙区で、互いに対立する政党に所属するC候補とD候補が、しのぎを削っていたとしましょう。

 ここでC候補に対するネガティヴ・キャンペーンをD陣営が画策するとします。

 例えば、Cはこんな不正がある、人間性はこんなに低劣だ、法的手続きも守っていない・・・などなど。

 あることないこと取り交ぜて、ツイッターなどのSNSはもとより、音声動画などネット上にフェイクニュースを垂れ流す状況を考えましょう。

 またD候補については、Dさんはこんなに素晴らしい、実はDさんは目立たないところでこんな人助けもしている、Dさんは優れた能力を持ちながら、それを鼻にかけたりしない・・・。

 ないことででっち上げたポジティブ・イメージをばらまくとします。

 一定以上悪質なこうした情報発信は、投票日以降に捜査の手が伸び、不法行為の事実が明らかになれば、法的に罰することができます。

「G7群馬高崎デジタル・技術大臣会合・閣僚宣言」にも、各種の遵法的風味のお経やノリトが記されている。

 しかし、もし仮に上に記したような「ネガティブ・キャンペーン」や「でっち上げポジティブ」などを、高度自律システムが勝手に作り出していたなら、と考えてみていただきたいのです。

 つまりD陣営としては、極力、法に触れない遠隔操作のような形で、AIが勝手に振舞うように準備して、C候補を貶めるフェイクニュースを自動生成するわけです。

 あるいはD候補に「経歴詐称」のようなことをさせてもよい。

 でもこれらが「AIのやったこと」となると、いったいいかなる責任を誰に対して訴求することができるのか?

 自然人格である特定の個人を「公職選挙法違反」で逮捕や起訴したりすることができないとき、いったい政府は、あるいは選挙管理委員会は、どのような不正防止や事後の取り締まりが可能になるのか。

「G7群馬高崎デジタル・技術大臣会合・閣僚宣言」は、本質的にガバナンスの問題である、生成AI以降に特有のこうしたシリアスな状況に対する対策を一切述べていない。

 素人の作文かと見まごうばかりです。

 実は、私たち東京大学のAI倫理グループがこうした問題に取り組むようになったのは2014~15年頃からで、すでに8~9年の積み重ねがあります。

 当初は「ELSI問題」と呼ばれていました。

 ELSIとは「Ethical, Legal and Social Issues(倫理的、法的、社会的案件」のことです。こうした問題化しうる状況に対策を立てる必要がある。これは間違いありません。

 続いて2015年以降、この種の問題はAIというより「高度自律システム」、特に「自動運転車」の技術開発倫理指針として検討されるようになります。

 背景の一つとして、2010年代欧州の経済を牽引したドイツのアンゲラ・メルケル政権による「インダストリー4.0政策」で、自動運転技術の確立を100年前の「建艦競争」同様、イノベーションの主軸に据えた経緯がありました。

 100年前の建艦競争とは、20世紀初頭の帝国主義列強は、すべてのイノベーションの集約目的として「ドレッドノート」などの巨大戦艦の建設をシステム・インテグレーションの中心に据えたことを指します。

 周知のように、そうした「時代」は2010年代と共に終わりを告げ「生成AI以降」の新しい状況が突きつけられている。

 そしてそれに対して、ほとんどまともな「固有の対策」を立てられていない。

 ヒントン博士がグーグルを去って自由に発言したいとする大きな動機も、こうした「現実的なAI倫理の諸問題」にあることを本人が繰り返し強調しています。

 ジョージ・オーウェルの近未来小説「1984」が描くような、人類が機械に支配される監視社会の到来など、SF的なAIディストピアを心配する必要は、およそまだありません。

 むしろ、機械仕掛けのフェイク情報が選挙戦を左右し、その結果について誰も法的責任を問えないアノミー、無秩序状態が到来するなど、すでにドナルド・トランプ氏が勝ってしまった大統領選や、ブレグジットでも垣間見えてしまった。

 リアルなリスクが恐ろしい。

 あるいは「自動運転車」が事故を起こす状態を軍事に拡張して考えるなら、AIが誘導して確実にターゲットにヒットする「自動殺人機」を作ること自体は全く簡単で、すでに多くが実装されているわけです。

 かつ、「マシンの行動」に対してどの国の何の法規も有効な規制の条項をもっていないアナーキーな状況を、ヒントン博士はもとより技術を過不足なく直視する専門人、特に私たちAI倫理関係者は、現実的具体的に懸念しています。

 また、ヒントン博士がほとんど顧慮せず、ほかの専門人が憂慮する要素もたくさんあります。

 例えば、ニューラルネットワークの基本演算「バックプロパゲーション」を確立した甘利俊一先生は、現在のAIが消費する莫大なエネルギーの無駄遣いを心配しておられます。

 人類はいまだ、ヒト脳の機序のごく一部しか理解していない。

 でもそれをバカの一つ覚えのように使い倒して、莫大なエネルギーを消費しながら、下手な人間の真似事がまだ十分にできないというのが、今日の生成AIの実際のところです。

 同じことを人間の脳は、おにぎり1個程度の消費カロリーでさっさと計算してしまう。

 これについてヒントン博士は、甘利さんと正反対の見方をしているようです。

 本当に数少ない計算原理だけで、驚くほど広範な「人間固有の論理演算」が可能であることを高く評価しています。そこで消費される莫大なエネルギーなどは、あまり問題にすることなく・・・。

 いまのAIに可能なことは何なのか?

 向こう5年~10年で実現される範囲はどの程度か? 

 また逆に、向こう50年100年経っても、まず実現不可能と分かっているのは、どのような領域か? 

 そうした領域にこそ、人間は智力を集中するべきではないか?

 こうした人材育成に向けてこの議論は続きます。その端的な例として「遊び」を挙げることが可能です。

 人間はAIで遊ぶことができますが、AIは人間をおもちゃにすることなどできません。

 あるとすれば、AIを濫用する人間が他の人を篭絡したり、もてあそんだり陥れたりする犯罪があるだけです。

 そうした事態に、正確な科学的理解に即した正義のメスを入れること。そうしたことが求められているわけです。

 続く議論は「遊ぶ東京大学の逆襲」として、続稿で詳しく取り上げたいと思います。

[もっと知りたい!続けてお読みください →]  孫泰蔵が「AI時代に教育はいらない」「親の言うことは聞くな」と言い切る理由

[関連記事]

欧州の報酬は日本の3~4倍、これでは日本の大学に優秀な人材は定着しない

世界の生成AIで次世代を伸ばす教育、日本の次世代を破滅させる教育

グーグルを去ったAI開発の第一人者、ジェフリー・ヒントン博士(2017年12月7日撮影、写真:ロイター/アフロ)