このところ、とりわけAI(人工知能)の話題が増えました。

 特に、ジェネレーティブAIと呼ばれる、過去の情報を元にして、それらしく対話する言語モデルChatGPTや写真・イラストを組成してくれるAIart系の興隆はすさまじいです。ほぼ毎週のように革新的なサービスが提供され、その都度「物書きの仕事がなくなる」とか「イラストレーターが廃業する」などの危機感を煽る記事が出てきています。うっせえわ

「AI山本一郎」に問いかけてみたところ

 実際、私の本業の周りでも映像作品を提案するのに「これこれこういうモチーフで企画案やシナリオを作ってください」と要求すると、何となくそれっぽいものを作成して「どうですか」とか返してくれます。

 おお、これは便利だ。

 私も執筆者として17歳ぐらいからずっと記事を書いたりレポートを発表したりしてきて、ハードディスクには2,400万字ほどの過去の私の文章が保存されています。これをあらかたAIに食わせてGoogle Cloud上に「AI山本一郎」を作り、そいつに「より良く生きるってどういうことですか」って問いかけてみたところ、こんな文章を返してきました。

〈 生きるなんて考えているから、お前の人生はつまらないんですよ。そもそも生きることを意識するなんて無駄です。いちいち息を吸ったり吐いたりするのを考えたりしますか。限りある人生を良く生きるためには、生きていることそのもので悩んでいては駄目で、死ぬまで悩み続けることになります。むしろ、死ぬ前提で、自分が死ぬときどういう気持ちで死ねるか、満足なのか、幸せなのか、ああいい人生だったなと思って死ねるよう日々を頑張って悔いなく生きることがお前には必要なんです。だから幸せを感じたらいますぐ死ね〉

 腹立つなあ、AI山本一郎

 それっぽいこと言いやがって。

AIができることの「可能性」と「限界」

 私の仕事での専門は政治統計ですが、人工知能でのかりそめの知性も同様に、これらは膨大な計算量を駆使して「過去に起きたことから現在求められている内容についてまとめる」という、ある種の未来予測のあり方とあまり変わりはありません。例えば、選挙において情勢分析をするのに、投票所での出口調査と過去の投票傾向を加味して投票結果を予測することは、充分な情報がもとにあれば統計的に「将来起きることを予測する」という未来予測が一定の確度でできます。

 人工知能も、過去に起きた事柄が線形的にそのまま続くのであれば、膨大なデータを使って猛烈に計算させながら、それっぽい未来を人に見せることができるのでしょう。ここには、ふたつの観点があって、ひとつはマンマシンインターフェイス、すなわち人が理解しやすい形でAIがアウトプットを出せるようになったこと、もうひとつはAIができることの可能性と限界が割と分かりやすい形で提示されるようになったこととが挙げられると思います。

対話も映像も…理解しやすくなったAIの進化

 いままでは、「人間に分かりやすい未来予測」と言われても人工知能ができることを具体的に想像できる人はむしろ少数でした。せいぜいいって、人工知能で学習させたチェスが人類より強いよとか、自動車を自動運転させるにあたりセンサーから掴み取ったデータを集めて活用した人工知能リアルタイムに危険を察知してハンドルを切ったりブレーキを踏んだりするよってやつでしょうか。

 これでも充分凄いのですが、実際に驚くべきは、人との対話がそれらしくできるようになったり、人が好む絵や写真、映像まで充分な計算量を捌けるマシンがあれば達成可能になったので、AIの進化が理解しやすくなった、だからChatGPTは凄い、革命だ、人間を人工知能は超えていくのではないかと身近に感じられるようになったのだと言えます。

 他方で、これらの状況が成立するには(1) 充分な過去のデータがあって、(2) 未来にわたって過去の流れを踏襲してくれ、(3) 膨大な計算量を支える豊富な電力とネットワークがあることが大前提になります。逆に言えば、過去に起きたことのない事柄や、最先端だったり特殊だったりで、そもそもデータの蓄積のない事象について吐き出すことは人工知能にはできません。

 また、概念(フレームワーク)も人工知能は理解していません。歴史的な事実や論理パズルに関してネットに出ている通りに質問すると、そのままズバリの回答をしてくれますが、少しでも変えると突然頓珍漢なことを答え始めます。

 例えば、数学のノーベル賞にあたるフィールズ賞を受賞したような難問を聞くとネットでの解説通り回答してくれるのですが、その設問を大阪弁にしたり、主人公が「オッス、オラ悟空!」とかノイズを喋ると、途端にグダグダな結論を出してきます。残念ながら、まだその程度のものではあるのです。充分凄いは凄いけど。

あたかも「わたし、知ってました」という感じのクソ回答

 したがって、皆さんも自分の名前をAIに訊いてみて、荒唐無稽な返答をされてのけぞった経験もあるのではないでしょうか。私もある最新人工知能サービスで「自分とはどういう人物なのか」を尋ねてみたところ、こういう回答を得ました。

〈 山本一郎は、1910年新潟生まれの日本帝国軍海軍歩兵で、満州事変に従軍した経歴をもつ経験豊富な叩き上げの兵士です。戦国武将でもあり、日本刀武芸の名手としても知られています。明治天皇からロシア戦争での勲功を理由に褒賞を4回に渡って受賞し、最新鋭の駆逐艦艦長となって日本勝利に貢献しました。水雷長としての手腕に優れ、人望を集めたものの乗っていたイカ釣り漁船が沈没する際に対艦ミサイルが爆発したことで惜しまれながら戦死しました。最終学歴は2013年に記録されています〉

 誰だよこいつ。

 たぶん、英語圏で流行った帝国海軍フィギュアエリートフォース」のシリーズ帝国海軍一等兵・山本一郎ってのがあって、これが教師データで重みづけされていたため引っ張られてクソ回答をAIが出してきたのかなあと類推するわけですが、アルゴリズムがどう判断したのかは人間の側にはよく分かりません。

 つまりは、人間の知性と似せる形で人工知能も発展してきたところ、これらのコンテクストと重要度、特定性のような認識はまだうまく把握できないわけです。

 しかも、これらの人工知能は仕組み上、聞かれた物事に関して「必ず回答はある」という前提で答えを捻り出します。つまり、人工知能において「『自分は』何が分からないか」という概念を持たないのでしょう。だからこそ、特殊な事例や過去にないものだけでなく、まったく架空な事項を質問しても、あたかも「わたし、知ってました」みたいな感じでクソ回答を堂々としてくることになります。

 最近リリースされたGPT4では、参照する情報が少ないと「確かなことは知られていませんが(Nothing is known for certain, but)」と前置きはするものの続く内容はおおむね与太話です。知らねえならもっともらしく回答してくるんじゃねえよ。

 ほぼ“ジェネリックひろゆき”みたいなものです。

たぶん最初に職がなくなったのは債券トレーダー

 なので、百科事典Wikipediaではなく)のようないわゆる常識(コモンセンス)を基準として、そこから人間社会が共通として知っているべきものや、ネットでふんだんに情報量が展開されている分野についてであれば、人工知能は問いかけに対して一定以上のクオリティで回答してくれるサービスが出てきた、というだけなのが現状ではないかと思います。

 AIが萌え絵イラストの自動組成を相応のクオリティでできるのも、ストレートニュースの記事をそれっぽく量産できるのも、ひとえに情報がいっぱいあって、普遍的に参照可能だからにすぎません。

 これらのAIがどんどん発展することで、人間の仕事が奪われる、みたいな言論が出るのも、人にとって分かりやすいサービスが出たことで当然湧き起こる議論だろうと思います。

 ただ、投資の世界ではすでに一般的な投資判断においてAIを使わないファンドはもはやないと言ってもおかしくないぐらい利用されています。たぶん、人工知能で一番最初に職がなくなったのは債券トレーダーなんじゃないかと思います。そして、次に仕事がなくなるか、役割が大きく変わる職業は薬剤師や教師でしょう。基本的に、一定の知識を持って繰り返し状況に応じて判断を繰り返す機械的な仕事ほど、AIに置き換えられていくことになります。

 債券や株式、為替などのトレーダーの件で言えば、ふんだんに過去の情報が参照できるということは、その相場が、どの局面で好材料と判断されて値上がりしたかや、何が悪材料として売り込まれたのかを学習しているということです。精度がどんどん上がるだけでなく、これがトレーディンシステムと直結したので、何かが報道されると人間よりも早くその記事に目を通し、重要度を判断し、これが売り材料なのか買いなのかを判定して、ほぼ光の速さで売り注文や買い注文を出すことができるのです。人間には勝てっこありません。

 これらの競合は職業として相場に長年携わった人たちであり、デイトレーダーです。証券でもFX・為替でも商品相場でも債券でも、公式な情報を元に売買するファンドで人が出る幕はかなり減り、結果として、AIを使わない投資家は売買機会が多ければ多いほど負けることになるのです。

人工知能にできない分野の価値は上がっていく

 言語モデルによる衝撃は大きく、一般的な教師や、経理などの事務職などの仕事はなくなるのではないかと危機感を煽る記事が出るのも当然のことで、これはこれで、おそらくは世界はそういう方向に向かっていく面はあるのでしょう。

 しかしながら人工知能の発展にともなって人間社会が変化し、価値のある仕事の定義が変わるというのは当然のことです。人工知能は過去のデータが将来もそのまま発生する前提(線形である)であり、参照できる情報量の乏しい分野では“量産型ひろゆき”状態になるわけですから、なんのことはない、人工知能にできない分野に従事する人たちの価値が上がっていくだけのことでしょう。

 確かに単純な電話オペレーターの仕事は減るかもしれないし、決められた手順で実施すれば仕事が進む経理などは人工知能に代替されますと言われればそれはそうなのでしょうが、より専門性が求められる仕事で、人工知能が価値の判断のできない込み入った情報を扱うものについては特に、人間が携わる仕事としての価値は上がっていきます。

 ある分野で自信満々に回答してくる人工知能の間違いを発見することができるのは、その分野でデータのない細やかな問題について知悉している人たちだけです。ひろゆきがもっともらしいことを言っていて、事実に基づいてそれは違うよと指摘する仕事の価値が上がるのであって、特定の分野をちゃんと勉強した人か、実際に両手両足を動かし、機械では代替できない仕事に従事する人が評価される世の中になるのではないかと思います。

専門性を担保できない有資格者は厳しいことに

 別の見方をするならば、他の人と同じことをやるような仕事はいままでも自動化の対象となり続けていたけれど、かなり状況が異なることでも価値や重要度を見極めながら判断していく仕事は人間にしかできません。状況を見ながら変化を見極めるために考えたり、提案したりする仕事は、どんなに言語モデル一般化しても陳腐になることはないし、むしろ言語モデル人工知能を使いながら判断の根拠となる情報を集めていくことは当たり前の世の中になっていくことでしょう。

 ただし、いまの相場について人工知能で検索しても、たまにとんでもねえクソみたいな間違いを堂々と自信満々でぶっ放してくることがあり、部下にひろゆきを持った気分になるので注意が必要です。

 極論を言えば、価値のある分野の専門家がまず生き残ります。

 ただ、その専門職、例えば医師や弁護士のように人間の集まりである社会での決めごとがあり、それに携わる人を選任するために国家が資格を作り、その知識量や正確さを計る試験などを経て社会がその仕事の品質を保証するような仕事は、将来的に脅かされることは間違いありません。最先端のもの以外、全部人工知能に置き換わるシナリオは可能性として当然あり得るからです。

 人工知能の進展により、いままでは国家資格の有識者の集まりだったはずの職業が、実は過去やってきたことの繰り返しでしかない仕事領域で人工知能に置き換えられ、専門性を担保できない大量の医師、薬剤師歯科医師、弁護士、司法書士、社労士あたりが厳しいことになるのも考えられます。

人工知能にできないこと」に特化できる専門性があるかどうか

 重要なことに携わるのに繰り返し何かをしなければならず、その繰り返しができる能力があるかないかを試験で判定して資格を与えているものは、タクシードライバーだろうが町医者だろうがあまり変わらないぞということになると、遠隔医療で主訴から初診が人工知能で自動化されて診療所が大量廃業なんて未来は起き得るわけです。薬剤師も司法書士も同様です。

 逆に、特定の診療科で専門性の強い臨床や研究に従事している最先端の医師は、むしろこれらの人工知能がその診療科で下す判定の内容が正しいのかどうかをジャッジし得る立場になるかもしれません。それは単純な物事の優劣ではなく、人工知能全盛の時代が本当に来るのだとするならば、必然的に人工知能にできないことに特化できる専門性があるかどうかですべてが決まってくるものなのでしょう。

「クソ回答」にも相応のコストがかかる

 そして、世間一般の人たちが、これらの言語モデルを中心とした人工知能の流行で仕事がなくなるんじゃないかと心配するわけですが、まあたぶん、いままでと同様に一部そういうこともあるかもしれないけれど簡単には問題は起きないと思います。

「またクソみたいな回答してきやがって」などと私らが面白がって遊んでいる人工知能での対話のやり取り、実はあれ相当な電力を喰います。ロボット肉体労働の代替となる時代が到来すると叫ばれつつも、なかなかそうはならんやろというのと同様、ひろゆき級の人工知能を振り回すのでも相応のリソースを使いコストがかかることもあり、サービス分野でぐりぐり言語モデルを振り回して採算の取れる業界は限られると思います。

 そして、そういう専門性のない分野で、人間というのは意外と脊髄反射するもので、知らない業界や地域、人々の事件が報じられるたび、みんな深く考えず初見で割と感情を丸出しにして良い悪いを決めています。考えずに情報を得て判断することが日常で一般的にあり、感情が思考をショートカットして日々暮らしているわけですよ。

 そして、これらの人工知能に望みのものを出力してもらうためのスクリプト。これ、「呪文」とも言われますが、要するに自然言語を使ったプログラミングと理解してまず間違いありません。例えば、貴殿ら読者が夜なべして人工知能と向き合い、いろんなものを表示してもらおうとしますが、たいていにおいて、人間は脳内にあるものを誰かに正確に理解してもらうためにどう表現すれば良いのか、必ずしも理解していません。つまり、人工知能を駆使するにもプログラミング能力が要る、ということになります。

 人工知能は革命だ、と言っている人たちはいて、それはまあそうなんでしょうが、人工知能を使いこなすには、現在はまだ残念ながらちゃんと自然言語を駆使したプログラミングの技術が必要だということに気づいている人は多くありません。

 文系の人たちが、なんとなくふわっとした仕事をしていて、あんまり正確ではないし厳密な中身ではないけどそれっぽい出力があったり、プロンプトにそれっぽい対話が示されれば「これはすごい」となるのは分かります。もちろん凄いのは間違いないけど、ただそれは、文系職種がいままでいかに適当なAとBとCを組み合わせて厳密ではない仕事をしてきたかということの表れでもあるので、過去のものを適当に組み合わせて出力する程度の品質の仕事ならAIのほうが得意だよ、ということに過ぎないのです。

知性を支えているのは所詮はタンパク質

 言語モデルによる人工知能が凄い知性だ、人間を凌駕するかも知れない、とビビる面は確かにあるのでしょう。ですが、実際にはそもそも感情で動いているモードの人間は、たいした知性を元から持っていなかったということに過ぎないのではないかと思います。

 私らだって、人間と獣を隔てるものは知性だとか偉そうに言ってますが、人工知能を実現しているGPUシリコン(石ころ)なのに対し、私らもその知性とやらを支えているのは所詮はタンパク質なんですよ。どんなに偉そうなことを言ったって、シリコンにも炭素にもできることに限界はあるでしょう。分かったうえで、日々を健やかに楽しく生きるしかないのです。

 なので、人工知能に負けたら、人工知能に言われた通り幸せを感じながらおとなしく土に還りたいと思います。

(山本 一郎)

©️AFLO