初めにやや私事ながら、本稿を執筆している2023年4月1日付で東京大学作曲指揮研究室教授と並行して、東京大学大学院情報学環・生物統計・生命倫理・AI倫理研究室教授に就任しました。
まずは読者の皆さんへのご報告から新年度を始めたいと思います。
この連載では従来から、東京都世田谷区の新型コロナウイルス感染症の後遺症解析や、グローバルAI倫理コンソーシアムでの機械学習が暴走してジョージ・フロイド事件のような冤罪を生み出す「アルゴリズミック・バイアス」の問題など、重要な問題を折に触れて取り上げるようにしてきました。
しかし、特段「東大教授が・・・」といった強調の仕方はしないよう、一貫して留意してきました。
率直に申すと、そういうPRを「恥ずかしい商法」と見るサイドで、穏当な連載を長年続けてきたからです。
私は東京大学内の人間としては理学部物理学科、同大学院という保守本流中の本流を一貫して進んできました。
本来の仕事で歴史に貢献するのがライフワーク、おかしなメディアPRで歓心を買うようなことは忌避するオーソドキシーを重視します。
かつて東京大学に蔓延った悪質極まりないアカデミックハラスメントの実名報告なども興味深く思うのですが、それは司直に任せることにでもして、ここでは「AI社会リテラシー」の問題を扱いたいと思います。
鬼面人を驚かすような派手な見出しなどではなく、地味なタイトル、質実剛健の内容で内外社会の人倫に資する出稿を、開高健賞の受賞で商用原稿をコンスタントに書くようになった2006年以降、心がけてきました。
私の第1期の学生、東京大学医学部付属病院准教授の今井健君(AI診断)など、すでにりっぱに大成し第一線で活躍する若い仲間たちにもサポートしてもらいながら、さらにこの方向を徹底する念頭です。
5月には東京都美術館でのアート&サイエンスの展覧会やコンサートなどの予定もあり、時事を背景とする必然性を含め、ここでもご紹介していけたらと思っています。
音楽、芸術とサイエンス最先端の話題は別稿に譲るとして、本稿ではAI倫理と生命倫理が交錯する、グローバル・フロンティアの話題をご紹介しましょう。
1分子から1ニューロン、1つの気づきへ
私の研究室は1999年の創設以来「1原子から1ニューロン、1つの気づきへ」という標語を掲げ、理学系の基礎に立脚して応用最前線の問題の解決と、新しいシステム、作品の創成に取り組んできました。
などといっても、分かりにくいと思いますので「生命倫理」の具体的なトピックスでお話してみましょう。
今月、つまり2023年4月22~27日、米国マサチューセッツ州、ボストンで開かれる、米国神経学会(ANN)で「軽傷コロナであっても、脳の機能・構造に変化が生じる後遺症の可能性」という、見過ごすことのできない発表が行われる予定になっています。
新型コロナウイルス感染症の後遺症、専門的にはPACS (Post Acute COVID-19 Syndrome =急性期以降のコロナで現れる症候群)と呼ばれます。一般には「Long COVID」などマスコミ造語の方が普及していると思われます。
新型コロナウイルス感染症は、不安や抑うつと言ったメンタルヘルス面の症状が数多く出ることがすでに臨床的に確認されていることは日経サイエンスの特集などでも取り上げられています。
米マッキンゼーの試算でも、2022年米国の労働力の0.8~2.6%がコロナ後遺症で失われた可能性が3月25日付の日本経済新聞でも報じられました。
他方、日本国内報道の水準はサイエンスの体をなしておらず、コロナがいったいどういう病気であるか、病理の分子メカニズムに立脚した解説を邦文で見ることはまずありません。
これは「専門家」としてメディアに登場するのが臨床医、現場の医師で、基礎病理を解明する研究医ではないことなど、浅からぬ背景があります。
「コロナは風邪」か?
残念ながら答えはノーです。
コロナウイルスのイメージとして広く知られる「ツノツノ」スパイクが生えているウイルスの表層膜面は、実は彼らが創り出したものではなく、直前に感染していた人の細胞から「小胞体」という部分を失敬して使っています。
そして、部品をぼろぼろにされた患者の細胞は死んでしまう。
例えば、コロナが肺の細胞に感染すると、ものすごい勢いで肺での呼吸を成立させている酸素交換の機能を司る細胞を破壊してしまう。
その結果、流行初期に見られた致命的な容態の急変が起きてしまう。
これと同様に、神経系統を司る細胞がコロナに感染すると、細胞が破壊され機能が失われてしまう可能性が考えられます。
神経細胞は再生しませんから、一度死滅してしまうと二度と使えません。
リハビリテーションなどは、生きている別の細胞が新たに学習して結合を創り出すことで機能を回復している。手足を動かす骨格筋の支配神経などは物理的なリハビリトレーニングで再生の可能性があります。
しかし、心をつかさどるニューロンはどうでしょう?
効果的なリハビリテーション法は何なのか。そもそもそんなものが存在するのか。非常に難しい問題です。
このように「コロナ後遺症は軽症でも、脳の機能構造に変化のリスク」という情報がもたらされたとき、原子分子の挙動に基づくコロナの病理に照らして、その可能性は検討に値するリスクなのか、情報を評価する「見立て」の能力が問われます。
原子、分子の挙動から病気の正確な進行を知り、リスクを的確に判断すること、こんな芸当は、現行の原始的な畳み込みニューラルネットワーク演算でできる代物ではない。
そういうことをよくわきまえて、最終的に人間が判断を下すAI社会リテラシーが、2023年以降の高度に電算化した社会で足元をすくわれないための、基本条件になっています。
以下では逆の事例から、取り返しのつかない失敗を犯した事例を挙げてみます。
STAP細胞詐欺の教訓
かつて2014年に発生したSTAP細胞詐欺事件は、見る人が見れば慎重にチェックしないとかなり怪しい「情報」が公開されることで株価が乱高下、利ざやが抜かれる、実にくだらない事件でした。
しかし、責任ある立場の研究者が命を落とす事態となり、以後の日本の大学機関では「研究倫理」が、形式的にはやたらとうるさく問われる窮屈なものに代わってしまいました。
日本全体のリサーチ環境にとって、取り返しのつかない影響です。
いま「形式的には」といったのは、研究成果の真贋を「本当に」見極めるのは大変だから、まずもって形式面を整備しましょう、という後発先進国日本のお役所らしい発想です。
およそアカデミアとしての倫理の内実を全うしていないものが珍しくない。
無内容なのに煩瑣な手続きだけが増え、研究そのものの内実はほったらかしとなるのは「不正チェック」にデータマイニングやAIの道具を浅く形式的に使っていることに起因する必然でしかありません。
「フェイク」が「フェイクであること」を、大学の構成員であっても、半歩「専門」から逸脱した内容なら「判別不可能」と、思考以前にあきらめてしまう、知の退廃、知の空洞化がこうした症状の根本にあります。
実際には「AI頼み」にして思考停止を決め込んでしまうケースが非常に多い。
例えば、犯罪捜査AIが、新たな事件が発生したとき、近くに住む前科前歴のある人の中から、適当な人間を「容疑者」と特定することで、とんでもない冤罪が発生したりする。
状況はやや異なりますが、BLM(ブラック・ライヴズ・マター)の全世界的運動を引き起こした「ジョージ・フロイド殺害事件」も、「データ・マイニングの結果」を鵜呑みにした思考停止と殺人暴力とが結びついた、最低最悪の事件だったと分かります。
AI時代を生き抜くための最大の知恵は「AIも電子レンジもしょせんは機械、大半はろくでもない」くらいに思い捨て、道具として使い倒す基本的な心構え「マインドセット」にほかなりません。
風が吹くと桶屋は儲かるか?
本稿を執筆している4月1日、エイプリルフールですが、幸か不幸か週末のため、現時点ではあまり派手な「AIフェイク」の嘘被害という報道は見かけません。
しかし、例えば2022年の秋、静岡を襲った豪雨の際に出回り、物議をかもした「水害フェイク画像」の虚偽情報発信など、AIを用いた「ディープフェイク」情報は急速に社会への蔓延しています。
上のケースは「犯人」がはっきりしており、東京都内に住む成人のネットユーザーがフェイク画像を合成、不特定多数に向けて公開する、虚偽情報の濫用行動をとったことが判明しています。
日本の現行法では、こうした事犯への刑事罰などが確立しておらず、実質野放し状態、サイバーセキュリティの別の側面として、私の研究室でも対策を検討してきました。
しかし、タチが悪いと思われるのは、そうした「確信犯」の事案だけでなく、自動生成によっていくらでもAIはフェイクを作り出せること。
かつ、その増殖や伝播の速度は、人間が一つひとつ手作業で追いつけるような代物ではないことです。
そのため、先ほど指摘した大学研究機関ですら感染していいる重度の「思考停止症候群」が蔓延っている。
AIやデータマイニングに可能な人間を凌駕するほぼ唯一の能力は、生身の人間であれば一生かかっても見切れない莫大な情報を、ごく短時間のあいだにチェック、スキャンできることだと思うと、物事を考えるうえで役に立つように思います。
その結果、莫大な選択肢の中から怪しいものが浮かび上がる。
例えば日本全国を走っている自動車のナンバープレートから、容疑者の運転する車の移動を探し出せる(Nシステム)。
しかし、運転している容疑者が「真犯人」であるか、そうでないかを、AIが自動的に判別することは絶対にあり得ない。
ヒトのユーザーが思考停止することなく、その真贋を見分けていく必要があります。
江戸時代の小噺で「風が吹くと桶屋がもうかる」というものがあります。ひょっとするとZ世代の読者はご存知ないかもしれません。
実に荒唐無稽な話です。
①「風が吹く」→「砂埃が立つ」
② 「砂埃が立つ」→「それが目に入る事故が多発する」
③ 「砂塵が目に入る事故が多発する」→「失明する人が増える」
④ 「失明する人が増える」→「(当時盲人の職業とされた)三味線弾きの人口が増える」
⑤ 「三味線弾きの人口が増える」→「(三味線の材料に使われる)市中のネコが乱獲される」
⑥ 「市中のネコが乱獲される」→「(天敵が減ることで)ネズミが増える」
⑦「ネズミが増える」→「(ネズミがかじるので、家庭で使用する)桶が破損する」
⑧ 「桶が破損する」→「桶の売り上げが伸び、桶屋が儲かる」
実際にはありそうにもない展開で聞き手を笑わせる小噺ですが、AIがもたらす「新情報」はこれに類するものと思うとちょうどよいでしょう。
つまり、我々人間には直観的に把握できない、莫大な量の過去のデータをスキャンし、その中から相関がありそうな「仮説」のセットを提示すること。
たかだかその程度が、いまのAIに可能な最大限の能力であって、それ以上のものでは基本ありません。
それを判断するのは常に人間。その判断に対して責任を問われる主体もまた生身の人間というのは、現行法に基づく社会のルールです。
AIシステムがもたらす「これが静岡の洪水」でも「風が吹くと桶屋が儲かる」でもいい、一見すると奇異な情報が、本当に信用するに値する可能性のある情報であるのか、あるいはただのフェイクでしかないか?
それを見分けるAI社会でのリテラシーが問われます。
以下の例はAIが生成したメッセージではないけれど「コロナ後遺症は軽症でも脳に器質的変形や機能変化が現れるかもしれない」という情報は、大いに傾聴に値しますし、「STAP細胞」は、ハナから怪しい話でしかない。
これに類するフェイク情報が莫大な数自動生成され、ネット上に撒き散らかされているのが、いま現在の私たちが暮らす社会の現実にほかならない。
真贋を見分ける眼を持つことです。仮に騙されたとしても、結果的に責任を問われうるのは、私たち人間のサイドだけですから。
「転ばぬ先の杖」AI倫理を慎重果敢に考え、対策を打っていくことが、サバイバル最大のコツになる。
そこで私自身、その専門研究室を立ち上げたわけです。
今後も頻発するであろう、ディープフェイク犯罪の具体事例に即して、続稿も準備したいと思います。
[もっと知りたい!続けてお読みください →] さらばお代官様、袴田事件特別抗告断念が切り開いた日本の近代化
[関連記事]
コメント