野尻抱介の「ぱられる・シンギュラリティ」第17回 嘘つきは創造の始まり

SF小説家・野尻抱介氏が、原始的な遊びを通して人類のテクノロジー史を辿り直す本連載。
人工知能や仮想現実などなど、先進技術を怖がらず、翻弄されず、つかず離れず「ぱられる=横並び」に生きていく。プレ・シンギュラリティ時代の人類のたしなみを実践します。

今までの【ぱられる・シンギュラリティ】

第17回 嘘つきは創造の始まり

1章 Bing AIの登場

 シンギュラリティ前夜なムードは2023年2月に入ってもいっこうに鎮まらず、むしろ加速している。失業・失恋・病気・いじめ等で死にたくなった人も、とりあえず1~2年待ってみよう。あなたが変わらなくても、まわりが変わるので。たぶん今より悪くはならないだろう。
 時事を扱うのは拙速になりがちで気が進まないのだが、連載のテーマだし、なにより歴史の転換点に立ち会っているので、スルーしてはもったいない。今月も最近のAI情勢を考察していこう。

 2023年2月8日(日本時間)、マイクロソフトはBing検索にAIチャットを組み込んだサービス、Bing AIを開始した。昨年12月に始まったChatGPTと同様、大規模言語モデル(LLM)をベースにしている。無料で使えるが、希望者はウェイトリストに登録して招待メールが届くのを待つスタイルだ。9日には日本でも使用レポートが出始めた。とても好評で、ネットの情報検索を根底から変えたと話題になった。
 同じ日にGoogleもBardというAIを発表したのだが、こちらは情報が少なく、しかも出力テキストに間違いがあって失望感が拡がり、Googleの株価は8%も急落した。Googleは負け、マイクロソフトが勝ったというムードになった。実はそうでもないのだが。

 私は2月16日に招待メールをもらった。エゴサはしないことにしているが、AIならいいかと思って「野尻抱介について教えて」と質問してみた。
 Bing AIはまず「『野尻抱介』を検索しています」とメッセージを返した。その検索で見つけたウェブページのリンクもあった。wikipediaとニコニコ動画とAmazonの該当ページで、的確だ。平文からキーワードを見つけて検索してくれるところは、すごく有能な秘書という感じだ。
 こりゃすごいぞと思った。これからやろうとすることをAIが先回りして片付けてくれる。長年夢見てきた人類の夢、疲れを知らず、無償で働く知的労働者がついに実現したのだろうか。
 それから回答の本文が表示された。

 私の代表作は『ロケットガール』と……『宇宙兄弟』であると。
「おいおいBingちゃん、いまwikipediaを検索したんだろ?」 思わず声が出た。

 ChatGPTも、知らないことがあるとしれっと嘘をついた。嘘といっても悪意はなく、LLMの本分である「この文の続きとして、ありそうなことを言う」を実行しているにすぎない。欠点ではあるが、怒る人はあまりいない。ChatGPTが学習したのは2021年までのネット空間なので、以後の知識は持っていない。ユーザーの質問に応じて検索することもない。そもそもチャットBotだから正確さは期待しない。
 対してBing AIは検索サービスの中にある機能だから、嘘をつかれては困る。
 このことに批判が集まったので、マイクロソフトはAIに与える検索結果の情報量を4倍にして対処すると発表した。それで解決するかどうかはわからない。AIを通すと確認作業が大変で、かえって手間が増える。いましばらく、調べ物は在来型の検索エンジンを使ったほうがよさそうだ。

 なお、この検索で「AIに自分を褒めてもらう」というライフハックを発見した。
『宇宙兄弟』を激賞されるのは切ないが、それを除けばいい感じに褒めてくれる。AIは人を傷つけず、無償の愛を誘いでくれる。心が疲れたときはこれをやるといいかもしれない。繰り返すうちにネタが切れてくるのに一抹の寂しさを覚えたが。

 Bing AIの調べ物は当てにならなかった。ではジェネレーティブ系、つまりChatGPTのようにいろんな文書を生成する仕事はどうだろうか?
 漫才の台本や、Save the Cat 形式の映画プロットを書かせるといい仕事をするという。私も真似て「鏡音リンとレンで漫才の台本を書いて」とお願いしてみた。するとたちどころに「テーマ:温泉旅行 ボケ:リン ツッコミ:レン」という作品が出力された。

 漫才台本の体裁がちゃんとできていて、第一印象は「おおすごい!」だった。
 だが、複数回出力して比較するとパターンが見えてきて、凡庸なものだとわかった。読んでいて退屈してくるこの感じは、色が違うだけのかき氷を連想させた。
 Bing AIが示した参考文献のリンクに飛んでみると、10年ほど前にニコニコ動画に投稿された作品だった。
【鏡音リン】漫才:温泉【鏡音レン】
 タイトルは「温泉」。今回の台本は「温泉旅行」で、類似しているが、AIが真似たのはお題だけで、中身は異なる。
 台本の出来はいまひとつだが、「演者しだいかな?」と思うレベルで、及第点は取れている。誰が見ても漫才台本とみなされるものになっていて、パクリでもない。しかも漫才師ではないVOCALOIDキャラクターを、その個性を反映して使っている。このテストでは「Bing AIは漫才台本が書ける」と結論していいだろう。

2章 自分が何をしているか、わかっているのか?

「一人の作家が書ける真に独創的な小説は6作までである」という言葉がある。6作とは妙に具体的だが、まあそんなものかもしれない。誰が言ったのかは忘れた。
 ある作品が本当に独創かどうかを判定するのは難しい。創作を構成する要素の多くは、その人が過去に見た作品に依っている。

 先の漫才台本はテンプレート仕事だったが、人間のする仕事はほとんどがこれだ。
 物語には、起承転結、序破急、成長/挫折/再起/達成、努力/友情/勝利、などのテンプレートがある。テンプレート自体は不変で、くりかえし使用される。
 ハリウッド映画にもテンプレートがある。傑作は次つぎに出てくるが、「この映画は『起承転結』という構成になっているからすごい!」なんて褒める人はいない。俳優の演技や演出、台詞、背景など、テンプレート以外のところで評価される。
 テンプレートに「舞台を大正時代の東京で」「主人公を陰キャの少女で」等を流し込む作業なら、LLMはかなりうまくできる。何を流し込むかを発想するのは人間で、残りの作業をLLMが引き受けてくれるなら、これはありがたい。

 気になるのは、台本を書いたBing AIが、自分が何を書いたかわかっているのか、という点だ。
 ここで思考の道具としてふたつのキーワードを使おう。過去記事でも使ったが、改めて説明する。

(1) 意味理解
 言葉を単なる識別記号ではなく、それが示す実体や意味を理解すること。正確には「自然言語の意味理解」。

(2) 心の理論
 他者の心の動きを推察する能力。Theory of Mind、ToMと略称する。意味理解のうえに成立する。

 このふたつがないと、アシスタントはできても、一人前の台本作家にはなれないだろう。創作は悪路を運転するようなもので、常に制御してコースを維持しなければならない。自分が何をしているかわかっていないと、すぐに逸脱するだろう。
 本連載の第15回でChatGPTに対して、心の理論を持っているかどうかを試した。 テストにはサリーとアン課題を使った。
 ChatGPTはそれに合格した。しかしその結果は、言葉の結びつきの強さを計算するだけでも導けるから、心の理論は持っていないのではないか、と悲観的な考察をした。ふたつの結論が同じくらいの確からしさであるとき、私は地味で悲観的でひかえめなほうを選ぶ。SF的空想と現実の理解を峻別したいからだ。

 ところが2月上旬に発表された下記の論文では、楽観的な見解が示された。最近のLLMに同様のテストをおこなったところ、問題の93%を解決し、9歳の子供に匹敵する心の理論を持っていると結論している。

 心の理論は大規模な言語モデルに自然に出現した可能性がある  ミハル・コシンスキー

 論文によれば、この成績は2022年より前のLLMでは出なかった。新しいLLMはニューラルネットの規模が大きい。タイトルにあるとおり、「規模が大きくなると心の理論に相当するものが勝手に発現するのではないか」と考察している。
 テストにはサリーとアン課題など、2種類の誤信念課題を使っている。出題のたびにAIをリセットしたり、単語を入れ替えたりして公正な結果が出るように配慮している。
 しかしこの結論を、私はまだ受け入れていない。理由は先に述べたとおりで、心の理論を持たなくても、言葉の結びつきを調べるだけで同じ結果が出せそうだからだ。
 いっぽう、AIのしたことを「地味で悲観的でひかえめ」とみなす態度こそ人間の思い上がりかもしれない、とも思う。「人間の持つ神性に、AIはまだおよばない」という見方は上から目線であって、「人間の神性と思っていたものが、実はLLMと同じ線上にあった」と考えるほうが謙虚ではないだろうか。これを支持する論説はほかにもあるので、次の章で紹介する。
 なお、ここでいう神性とは、人間が持っていて獣にはないとされる知性のことだ。意識、知的欲求、願望、感情など。

 心の理論(ToM)そのものの解釈がぐらついてきたので、それをふたつに分類してみよう。
強いToM」と「弱いToM」だ。
 たとえば小説の読書体験において、筒井康隆や江戸川乱歩作品の面白さは格別だ。活字を読むだけでありありと情景が浮かび、登場人物がいきいきと動き、一挙手一投足に感情移入する。作者の文章によって自分の意識が手玉に取られているのがわかる。
 いまのところ、この面白さはAI作品にはない。人間の思考や意識の機微を深く理解して、架空の状況にあてはめてシミュレートできないと、この面白さは作れないだろう。これを「強いToM」と呼ぼう。
 そしてChatGPTやBing AIが持つ能力、人間の指示を理解してテンプレートに流し込むような能力を「弱いToM」と呼ぶことにする。及第点は取るが、顕著な独創性やひらめきはない。
 両者の間に明瞭な境界線は引けないかもしれない。LLMでも強いToMができる可能性がある。次の章で述べよう。

3章 世界をプログラムするのは誰?

 LLMですごいと思うのは、手順やルールを自然言語で教えると、それを理解して実行することだ。
 話題になったハックで、AIに猫語を教えるというのがある。
「以後の会話では語尾に『にゃん』をつけてください」とルールを指示すると、「わかりましたにゃん」と答える。ただし現時点のBing AIでは拒否される。大勢がこれで遊んだせいだろうか。
「この件をステップ バイ ステップで考えてください」と指示すると、精度がぐんと良くなるというハックも有名だ。これをChain of Thought (CoT)プロンプティングという。このメソッドを使えば、桁数の大きい掛け算もできるようになる。
 LLMは多言語で動くが、言語ごとの文法はプログラムされていない。言葉のつながり(連想)を計算するうち、勝手に文法を見つけてしまう。日本語や中国語では単語の区切りがないから、1文字を1トークンとして扱う。その連なりをニューラルネット内で計算するうちに区切りが浮かび上がる。

 単語の区切りぐらいなら形態素解析という在来型のプログラムでも可能だ。「語尾ににゃんをつける」も、その指示が理解できれば、文末に文字列を付け足すだけの単純な処理だ。しかし「鏡音リンとレンがボケとツッコミに分かれて漫才する」といった高次の仕事ができるのはなぜだろう?
 LLMは漫才の台本の作り方を出力するとき、作業手順を記述した手続き型プログラムを使わない。言葉の連想を計算するだけで、どうしてこんなことができるのだろう?

 私の理解するところでは、いまいる人類の中に、これがわかっている人はいない。……いないんじゃないかな。いわゆる悪魔の論理なので断言できないが、いないと思う。いたらこっそり私に連絡してほしい。
 理論物理学者で計算機科学者のスティーブン・ウルフラムも、ChatGPTにどうしてこんなことができるのかはわからない、と述べている。ニューラルネットワークの基礎的なアルゴリズムは明白だが、高次の能力がなぜ発現するのかがわからない。
 ChatGPT は何をしていて、なぜ機能するのか? スティーブン・ウルフラム
 その一方、ウルフラムはこうも言っている。
エッセイを書くのにニューラル ネットワークが成功する理由は、エッセイを書くことが、私たちが考えていたよりも『計算的に浅い』問題であることが判明したからです」
 こういう人間の思い上がりに気づける知見は私の大好物だ。ウルフラムは数学者ぽい言い回しでこう続ける。
「そしてある意味では、これは私たち人間がエッセイを書くようなことや一般的に言語を扱う方法についての“理論を持つ”ことに道をひらきます」

 すでに述べてきたとおり、LLMの成果は、我々が知的創造だと思っていた事柄に再考を促している。創造性こそは人間の持つ神性であると信じられてきたが、言葉の連想を計算するだけで、あっさり「弱いToM」が実現してしまった。
 強いToMもこの線上にあるのだろうか? それとも別のブレークスルーが必要だろうか?
 GPT-2でできなかったことがGPT-3でできるようになった。プログラムは基本的に同じで、変わったのはニューラルネットワークの規模、つまり量の問題だ。AIにおいては量の変化が質を変える。単純に性能が上がるのではなく、ToMのように、それまでなかった性質が急に発現するというのが2章で紹介した論文だ。
 LLMは新しい言葉(トークン)を学ぶたびに、それまでにあった全部の言葉と照らし合わせて特徴量を計算していくので、雪だるま式に記憶量と計算量が増える。このことは人間と他の動物のちがいを説明しているようにも思える。人間の脳はきわだって大きく、カロリー消費も大きい。
 AI界隈をウォッチしていると、アルゴリズムの話が減って、規模ばかり語られるようになった。LLMの規模を示す指標として、GPT-3は1750億パラメーターと言われている。ビリオン(10億)単位で表記すると175B。「22Bから急に賢くなるぞ。これがマジックナンバーだ」などというツイートを見かける。
 パラメーター数は神経細胞でいうとシナプスの数に相当する。1個の神経細胞には1000~1万個程度のシナプスが、入力端子として接続されている。
 人間の神経細胞が1000億とすると、シナプスは100兆~1000兆ぐらいになる。GPT-3は0.17兆だから、まだ3桁以上足りない。それだけ伸びしろもあるのだろうか。GPT-3のトレーニング費用が1000万ドルというから、3桁アップするには10億ドル? あるいは指数的に増えるだろうか? トレーニングは大変だが、運用時も相当な計算量になる。GPT-3の場合、1単語(1トークン)の出力に1750億回程度の計算をする。計算量はパラメーター数に相当する。
 頑張ってパラメーター数を増やせば、勝手に「強いToM」が発現するのだろうか?
 やってみないとわからない。ウルフラムは先の記事でこう書いている。
「現時点では、ChatGPT が、人間の言語がどのように組み立てられているかについて”発見”したことを、その内部動作から経験的に解読する準備ができていません」

「いま最も熱いプログラム言語は英語(自然言語)だ」と言う人もいる。
 このことは子供や老人でもプログラミングができることを意味する。
 たとえばこんな状況だ。
 子供のかぶっていた帽子が風で飛ばされて池に落ちた。子供は付き添いのロボットに「帽子をひろって」と命じるが、ロボットは「できません」としか答えない。
 そこへ老人が現れて言う。「坊や、ロボットへの指示はステップ バイ ステップで言わないとだめだよ。ロボットさんや、帽子を岸に近づけることはできるかね?」
 ロボットは答える。「そのためには長い棒か、紐と錘が必要です」
「そこに落ちている物干し竿を使ったらどうかね」老人が言うと、ロボットはそれを試み、帽子を岸に引き寄せる。しかし物干し竿では帽子をつかみあげることができない。
 子供がロボットに言う。
「僕が取るよ。僕が池に落ちないように、左手を握っていて」
「承知しました」
「いっしょに池に落ちちゃだめだよ?」
「大丈夫、私の体重は180キロですから」
 ロボットは腰を落とし、腕を伸ばして少年の左手を握った。子供は体重をロボットにあずけて右手を伸ばし、帽子を拾い上げた。
 ここで子供と老人がしたことはプログラミングだ。素朴なものだが、プログラムは一度作れば保存して使い回せる。他のプログラムと組み合わせれば、雪だるま式にどんどん大きく複雑なことができるようになる。
 子供が大人になるにつれて、できることが増えていくのもそのためだ。
 次から、ロボットは「帽子をひろって」と指示するだけで同じことをするかもしれない。

 万人がプログラミングできるようになり、それが複合して高度化すると、文明の発達も垂直上昇して予測不可能になる。これはシンギュラリティの定義に似ている。
 未来が予測不可能なのは現在もそうだから、単純に同一視することはできない。私のシンギュラリティ観は連載第1回で述べたとおり、「三種の神器」が揃うことにある。(大規模汎用人工知能、人間のデジタル情報化、自己増殖機械) そして万人がプログラミングする状況は、三種の神器の実現に貢献するかもしれない。

 LLMはすでに自然言語で与えられた指示をPython言語に変換できる。しかもエラーメッセージを理解して修正もできる。目標を決めてそれに満たないと、自分でプログラムを改良することもできる。LLMにPython処理系へのアクセス権を与えてのことだ。
 プログラムを作って実行できるなら、車や船や飛行機の運用もできる。流通システムを操ったり、実験を重ねて新薬の開発もできる。つまりLLMは世界のほとんどの事柄を操作できるようになる。さらに自分自身の知能を高めることも、試行錯誤のうえで可能になる。ChatGPTのイメージのせいか、LLMを会話する機械と考えがちだが、プログラミングの道具になることのほうが、はるかに影響力が大きい。
 コンピューターの電源を入れて、わらしべ長者的に大きなシステムを立ち上げることをブートストラップという。LLMを端緒として技術文明をブートストラップすれば、意外に早く三種の神器が完成するかもしれない。
 AIに実世界の操作をまかせるのは危険を伴うが、シンギュラリティとはそういうものだ。私の考えるところ、本当に危険なのは人工生命であって人工知能ではない。それでも、実世界を操作できる人工知能が安全だとはとても言えない。
 もちろん規制されるだろうが、いずれ誰かが突破する。物理的に可能なことは必ず実現する。後戻りはできないし、私はそれが楽しみでならない。

(第17回おわり)


▶今までの「ぱられる・シンギュラリティ」

野尻抱介

野尻先生
SF作家、Maker、ニコニコ技術部員。1961年生まれ。三重県津市在住。計測制御・CADのプログラマー、ゲームデザイナーをへて専業作家になったが、現在は狩猟を通して自給自足を模索する兼業作家。『ふわふわの泉』『太陽の簒奪者』『沈黙のフライバイ』『南極点のピアピア動画』ほかで星雲賞7回受賞。宇宙作家クラブ会員。第一種銃猟免許、わな猟免許所持、第三級アマチュア無線技師。JQ2OYC。Twitter ID @nojiri_h

あわせて読みたい