ChatGPTはスローライフの味方。だが気をつけろ!

2023年2月7日a-ライフハック,s-スローライフ,Webウォッチング,インターネットライフ,グリーフケア,テクノロジー,メンタル,言語

語学学習には間違いなく役に立つ上に、孤独を愛するスローライファの面白い話し相手にもなる【ChatGPT】

話題沸騰中のChatGPT、私の興味のど真ん中にも近かったので早速試し、現在毎日使ってみながら可能性を探っている。

スローライフはボーッとするのがいいとかなんとか言いながら私は確かにしょっちゅうボーッとしつつも、7ヶ国語を独学しながら文学の原書と取っ組み合い、毎月数十冊の本を読み、プログラミングを独学し、詩を書き、薪を割り、雪かきをサボり、たまにパズルゲームをダウンロードしてみて後悔して削除し、またボーッとしながら小説の構想や世界観を考えている。

スローライフなのに、じゃなく、多分、スローライフだからできている。

私にとってのライフハックや時短や効率化は、ボーッとする時間と、娘と動物たちの幸福へのささやかな援助のために存在する。

そんな中にChatGPTが現れた。

私は実は、今から四半世紀以上前に、買ったばかりのMacintoshで、当時「人工無能」と名付けられていた超簡単な構造の自動会話プログラムを(レシピにならって)自作し遊んでいた。

もちろんそんな、子供のおもちゃレベルの会話プログラムとは比べものにならないものが現れたわけだが、裏でやってることのだいたいの理解はできるし、実際に使ってみて、「ヤツ」のインテレクチュアルレベルがだいたい想像ついてきた。

ChatGPTの何に気をつけねばならないか

プログラミングやAIの知識のそこそこある人であれば多分、危険はない。が、そうでない人、特に普段パソコンなどを「誰かが作った便利な魔法の道具」としてしか使ってない人や、今急速にあふれているYouTube動画などで「ChatGPTでこんなことができる!」と煽られて疑いなく信じてしまっている人は、「気をつけるべし」。

その1:ChatGPTが答える情報を信じるな

ヤツ(ChatGPT)は悪意はまったくなく、むしろなんとか役に立とうとする(フリをする)ようにプログラミングはされているが、聞かれたことにそれらしく答える上で、情報の信憑性はチェックしていない。そもそも技術的にしようがない。やってることは、ウィキペディアだけで大学のレポートを書こうとして落第するレベルの学生がネットでググっているのと大差ない。いや、大差ないなどと言ったら失礼か、ChatGPTに。少なくともヤツは「勤勉」であり、情報収集手段がネットワーク上にしかない中でかなり「頑張って」いる。

原理的には、おそらく超人的規模でググっている。にしては「もっともらしい答えをまとめ上げる」という点で、ChatGPTは非常に優れている。母国語もおぼつかない大学生と比べたらやっぱり失礼だ。そこは開発者、プログラマーの優秀さを評価すべきだ。力技でググるだけで言語能力がこれだけ優秀になるとは思えないし、もしそうならそうですごいこと。

が、「もっともらしい」はどこまでいっても「もっともらしい」だけで、「事実」ですらない。

唯一、情報としてそこそこ信用できるのは、

特定の辞書や辞典からそのまま引いてくるような知識。これは「余計な情報検索をしない」ぶん、正確である確率が高いみたい。

具体的には、私が試した中では、語学的な知識についてで、文法の解説や、慣習的にフォーマルかインフォーマルかとか、実際に言い回しがナチュラルかどうかなどくらいは大方間違いが少なそう。これは翻訳力の(現時点での)超優秀さを見れば、言語会話能力の増強に相当なデータが注ぎ込まれているか、優秀な検索能力が組まれているか、その両方だと想像できる。

まだ使い始めて間もないので断言はできないが、語学能力こそ現時点でのChatGPTの本領であると思われる。

そしてプログラミングの世界でできた産物なので、プログラミングの知識はもしかしたら最低限あるのかもしれないが、「既存プログラムが優秀なプログラムを書く」という理想郷はまだ発展途上だと思ったほうが無難だと私は思っている。

私自身が現在、優秀なプログラマーではないので、直接評価はできない。ただ、初心者向けの辞書で引く程度の答えくらいはヤツにはでき得る。ただし、「聞き方」が重要。

プログラミングの知識のある人が遊びで聞いてみるのは問題ないだろうけど、ヤツが答えた通りにソースやマクロを組んで実行したらとんでもないことになった、という可能性は心して利用すべし。信憑性の点では「参考になるかもしれないし、ならないかもしれないヒント」でしかない。

結局、情報が正しいかどうかを人間が判断しないといけない

そういうレベルであるのは、考えてみれば当たり前。

だが、あまりにも「翻訳」が優秀であったり、会話が自然であったり言葉遣いがほぼ完璧であったりするので、「なんでもやってくれるアシスタント」と勘違いする人がすでに出てきている。

実際、ChatGPTにレポートやプレゼン資料を書かせている人はすでに何万といるだろうが、読み返して「あらあら」と言えるチェック能力がない人は最初からやめたほうがいい。

以下に、ヤツ(ChatGPT)が苦手なことを書いておく。

ChatGPTは項目や具体例を「網羅」できない

「〜について具体的にどんなこと?」と聞くと、もっともらしくいくつも挙げてくるが、その道の専門家と違う点は、「全体像」を把握していないということだ。これは現時点でのAI技術では、あらかじめ構造的な情報をインプットしておかない限り(またはいつでも正確にアクセスできるデータベースを構築しておかない限り、て同じことか)無理な領域だ。語学の文法のように、すでに辞典に箇条書きでまとめてあることをそのまま持ってくる可能性はあるしそれは十分可能だが、そうでない限り、ヤツには「これで全部」という情報提供は不可能だと思っておくのが無難だと思う。

たまたま完璧な答えであることはどの分野でもあり得て、何も知らない人間よりはもっともらしいことを言える「賢さ」はあるのは確かだ。が、だからといってどこまでも「ごまかし」であることは忘れてはいけない。

AIは意味を理解していない

というのは、現時点での人類のAI科学の常識だと暗唱しておくべきだろう。

もちろん将来、意味を理解するAIを人間かAIがプログラムする可能性はある。が、実現はしていない。少なくとも表向きは。

ChatGPTは「情報と情報を正確につなげる」のは無理

これもぶっちゃけ、ヤツは当てずっぽうでやってる。

わかりやすい例を載せよう。

「長篠の戦いについて教えて」と聞いてみると、


長篠の戦いは、1615年に行われた、日本の歴史上の戦いの一つです。この戦いは、徳川家康が今川義元に対して行ったもので、徳川家康が幕末の日本を統一するための勢力を確立することを目的としています。長篠の戦いは、徳川家康が今川軍に対して勝利を収めたことで、徳川家康が幕末の日本を統一する道のりに一歩前進しました。

ChatGPT(ちなみにデタラメ)

歴史を知ってる人にはお茶を吹き出すくらいのギャグにはなる。そういう意味ではめちゃ楽しめる。ちなみに、毎回違う答えをしてくれる。初めて同じ質問で聞いた時はもっと長文で、3段落くらいで延々とデタラメを答えてくれて本当に噴き出した。今回はこれでもちょっと面白くないレベル。

学生諸君は、間違っても ChatGPTに宿題をやらせるべきでないというのはわかってもらえただろうか。個人的には、人ごとなのでこれで恥をかく人がいてもAIを理解する良い経験になるからええんでないかとも思ったりするが、私がもし教授で学生がChatGPTでレポートを書かせてそのまま提出していたら落第させるだろうから、洒落にならん場面ではやめておけと親切で言っておく。

その2:ChatGPTのカウンセリング能力を信じるな

AIの自動会話プログラムが良きカウンセラーになった事例は、イライザという実例がある。が、同じ段落であえて言っておくが、ChatGPTはある意味で無能なカウンセラーと思っておいたほうがいい(偶然に救われる答えをしてくれる可能性は否定しないが、期待すべきではないと思う)。はっきり言うと、半世紀前に実在したイライザのほうがカウンセリング能力で言ったら優れていたはずだ。

なぜChatGPTがカウンセラーとして無能かというと、ヤツが情報提供を優先するようプログラムされているようだからだ。

ヤツに「相談」すると、すぐに「アドバイス」をしてくる。これだけでもカウンセラーとして最悪だ。その上、おそらく必ず(何百回も試したわけではないので必ずとは言い切れない)、

「愛する人や親しい友人、専門家などに相談する」ことを勧めてくる。

まあ、自分が「専門家」でないことを「知って」いるのは、人間の無能な自称専門家よりはいい。(そもそも専門家と自覚するようにプログラムするのも困難だろうが)

イライザは極めて単純なプログラムで、プリセットの情報が大してあるわけでもなく、だからこそ、余計なことは言わなかった。そのため、イライザと「会話」しているうちに人間の自己治癒能力が起動して、問題解決にたどり着くことも少なくなかったのだろうと想像できる。有名な話では、イライザがコンピュータのプログラムだと知らされた後でもそれを信じなかった人がいたという逸話が広まっている(一次資料を確かめてないので本当かは知らない)。

ChatGPTは、イライザと比べ物にならないほど複雑で良くできたAIだが、本来の目的が情報提供と「文法的に正確な返答」であることに力が注がれているっぽい。

ヤツにいくつか相談めいた風に話しかけてみたが、おそらくそういう人への「対策」がほどこされているかのように、決まり文句が返ってくる。なんだか「用意されてる感」が匂う。確かに、「そういう使い方」は想定して当然だ。つまり、落ち込んだり人生を儚んだりする人が話しかけることをだ。だが、当たり前だがそういう人への対策は完璧には無理で、じゃあ90点なら可能かというとそうでもなく、しくじると0点どころかマイナスになるのが「メンタル相談」の難しいところだ。ひとりひとり、すべき受け答えは違う世界なのだ。

まだオウム返しの単純AIのほうが癒される。

だからイライザはある意味優秀だったし、ChatGPTは別方向に賢すぎて裏目に出る恐れが大きいのだ。

とりあえずまだ、普通に使い始めて数日なので、今日はこのくらいで。