こんにちは!じゅりんHACK管理人のじゅりんです。
最近AIとのおしゃべりがすっかり日常になってきました。仕事でネタに詰まったり、ちょっと変わった質問をしたいときなど、「ちょっと聞いて〜!」とChatGPTに話しかける今日この頃です(笑)。
そんな愛用ツールであるChatGPTですが、実は「従来のChatGPT(4o)」と「推論モデルのChatGPT(o1)」には、けっこう大きな違いがあるんです。ちょっとわかりにくいところもあるので、今日は、その「中身の変化」を、ぼくなりの解釈を交えながらお伝えしたいと思います。
従来のChatGPT(4o)は「即興演奏家」、推論モデルのChatGPT(o1)は「作曲家」
従来のChatGPT(4o)もなかなか優秀です。質問すればそれっぽく答えてくれるし、人間同士の何気ない会話に近い感覚でやりとりできます。ただ、その「それっぽさ」は、例えるなら「楽譜なしで場当たり的に音を合わせる即興演奏」みたいなものです。
即興演奏って、その場のノリやフィーリングは楽しいんですけど、いざ超複雑なクラシック曲を即興で合わせるのは無理がありますよね。ちょっと無茶をさせると「あれ、なんか変な和音鳴ってない?」みたいなほころびが出てくる。
一方、最近の推論モデルのChatGPT(o1)は、そんな即興演奏家から「ちゃんと理論をわかっている作曲家」へと進化したような感じ。作曲家は、演奏を始める前に曲全体のバランスを考え、メロディ、ハーモニー、リズムを熟考してから譜面を整えます。そのため、難易度の高い楽曲でも破綻しづらく、一貫性のある美しい曲を作り上げられる。推論モデルのChatGPT(o1)は、そんな「計画性」と「内なる思考」のステップを踏んで、答えをじっくり練ってくれるわけです。
「考えるステップ」を踏む、その裏事情
正直、初めてこの「推論モデル」について聞いたときは、「へぇ、AIも考え事するようになったのか」と妙に感心してしまいました。もちろん、AIの中で人間みたいな小人が机を囲んで会議しているわけじゃありませんが(いたらちょっと可愛いですよね)、内部的には複数ステップで論理を積み上げるような仕組みがあるそうです。
従来のChatGPT(4o)が「とにかく入力文に合いそうな答えを即座に吐き出す」タイプなのに対し、推論モデルのChatGPT(o1)は「一旦頭の中で問題を整理し、最適なストーリーや論理展開を考えてから回答をアウトプットする」イメージ。これによって、以前よりも複雑な質問に筋の通った回答を返すことができるようになりました。たとえば、「うーん、なんか計算ヘンじゃない?」と感じていた難しい数学問題や、論理展開が複雑な話題でも、推論モデルのChatGPT(o1)は「このステップを踏んで、この前提があるから、結果はこう!」と、かなりまともな答えをくれることが増えたのです。
「人間らしさ」ってなんだろう?
AIが進化して「考える」ようになったと聞くと、ちょっとドキッとしませんか?ぼくらは、ふだん「考える存在」は人間(や動物)だけだと思いがちです。ですが、こうして機械が「推論」するようになると、「考えるって何?」「私たちが頭の中でやってることと、どう違うんだろう?」と不思議な気持ちになります。
もちろん、AIには感情がありませんし、人間が悩み抜いて「こうしよう」と決断するプロセスとはちょっと別物でしょう。でも、AIにわずかでも論理的なステップや筋道を内包させることで、結果的に「より人間が理解しやすい回答」を得られるようになったとも言えます。つまり、推論モデルのChatGPT(o1)のほうが、人間が期待する「ちゃんと筋が通っていてわかりやすい答え」を返せるようになった、というわけです。
まとめ
- 従来のChatGPT(4o)(即興演奏家タイプ)
ノリとフィーリングでそれっぽい答えをポンと出してくれるけど、複雑な要求にはほころびが出やすい。
「場当たり的にはうまいけど、綿密な理論構築は苦手」な感じ。 - 推論モデルのChatGPT(o1)(作曲家タイプ)
内部でちゃんと考えるステップを踏んで、筋道だった答えを出せるように。
「最初に計画を立てて、理論整合性をとったうえで答えを組み立てる」ため、難問にも比較的スマートに対応できる。
そう考えると、ぼくらがChatGPTに話しかけるときも、「ちょっと突っ込んだ質問をしてみようかな」という気分になれます。いずれにせよ、AIは日々進化中。これからどんな「人間味」を(たとえそれが本当の感情でなくても)感じさせる能力を身につけるのか、ちょっとワクワクしながら見守っていきたいですね。