LLM時代の「思考する」を、ChatGPT・Claude・Geminiに聞いてみた

LLM時代の「思考する」を、ChatGPT・Claude・Geminiに聞いてみた

はじめに

最近、「従来の『思考する』と、LLMがある時代の『思考する』は何が違うのか?」という話を、ChatGPTと対話していた。

そのあとで、同じ話を ClaudeGemini に渡して、「このChatGPTの整理、批判的に見てどう思う?」と聞いてみたら、3者3様でけっこうおもしろい違いが出てきた。

この記事では、次の流れでまとめておく。

  • まず ChatGPT がどう定義したか
  • それに対して Claude がどこにツッコミを入れたか
  • Gemini がどこを危ないと見たか
  • 最後に、3つの見解を並べて比較表にする

1. ChatGPTの見解:「問い・痕跡・選択」にシフトする思考

最初に ChatGPT がしてくれた整理は、ざっくり言うとこういうものだった。

1-1. 従来の「思考する」

  • 自分で情報を集める
  • 自分で構造化する
  • 自分で文章を書く

つまり、

「集める → 理解する → 構成する →書く」
という一連の流れを、自分の手と頭で回すことが“思考”だった

というイメージ。

1-2. LLM時代の「思考する」

一方、LLM(大規模言語モデル)がある世界では、次の3つに人間の「思考」がシフトしていくのだと ChatGPT は説明する。

  1. どんな問いに時間を使うかを決める
  2. どんな形でデータ/ログを残すか設計する
  3. LLMが出してくる解釈・ストーリー案の中から、どれを自分の名で採用するか決める

文章に起こすこと自体は、

  • AI が 15 分で 1 万字出してくれる
  • 用途に応じて、あとから何度でも生成し直せる

ので、「まとめる行為そのもの」の価値は下がる。代わりに、

  • 問いの設計
  • 痕跡(ログや一次データ)の残し方
  • どの物語を自分として引き受けるかという選択

ここが、LLM時代の「思考の中核」になっていく、という立場だった。

2. Claudeの見解:「摩擦を消したぶん、あえて遅くする力が思考になる」

次に、このChatGPTの整理に対して、Claudeはかなり批判的・懐疑的な視点をくれた。

2-1. ChatGPTへの主なツッコミ

① 「従来の思考」を単純化しすぎている

ChatGPTは「自力で集めて、自力で整理して、自力で書く」と描いたけれど、Claudeいわく、それは実際の知的作業を矮小化している。

  • 昔から、優れた思考者は
    • 対話
    • 議論
    • 編集者とのやりとり
    • 他者からの批判
    を通じて考えを磨いてきた。
  • 「孤独な脳内作業」こそが従来の思考だった、というイメージは神話に近い。

② 「問いを立てる/物語を選ぶ」は新しくない

ChatGPTは「LLM時代は問いを立てて物語を選ぶことが核心になる」と言うが、Claudeは「それ、前からずっとそうだよね?」と指摘する。

  • 研究者は昔から「どの問いに賭けるか」を決めてきたし、
  • ジャーナリストも常に「どの切り口で語るか」を選んできた。

LLMが変えたのは、「その能力がなくても大量のアウトプットを出せてしまう」ことの方だ、と。

③ LLMを「候補生成機」と見なす危うさ

ChatGPTは「LLMは解釈候補や物語候補を量産するエンジン」と捉えるが、Claudeはそこにも違和感を示す。

  • その見方だと、人間は「選ぶ人」に縮小されてしまう。
  • でも、本当に重要なのは
    • 選択肢の空間そのものをどう設計するか
    • 候補にない方向性を見つけること
    であり、これは単なる「選択」では表現しきれない。

2-2. Claudeが見ている「LLM時代に本当に変わったこと」

Claudeは、より本質的な変化として、次のような点を挙げている。

  • 書くことの“摩擦”がほぼ消えた
    • 以前は「書くのが大変」だったぶん、その摩擦が思考を強制していた。
    • いまは、考えなくても滑らかな文章がすぐ出てくる。
  • フィードバックループが変質した
    • 昔は「書く → 読み返す → 違和感 → 書き直す」というループで思考が深まった。
    • いまは違和感が立ち上がる前に、それっぽい文章が生成されてしまう。
  • 「わからない状態」に留まる力が失われつつある
    • LLMはすぐ「それっぽい答え」を出すので、不確実性に耐える時間がどんどん減る。
  • 責任の所在が曖昧になっている
    • 「この物語を自分の責任で採用する」と言っても、実際には根拠を自分で説明できないケースが増えている。

2-3. Claudeの結論:「あえて遅くする能力」が思考の核心になる

Claudeの暫定的な結論はシンプルだ。

LLM時代の「思考する」の核心は、
意図的に遅くする能力 だ。

  • 速く出せるからこそ、あえて出さない。
  • すぐ答えが返ってくるからこそ、あえて「わからない」に留まる。
  • 滑らかな文章が出てくるからこそ、あえて自分で粗く書いてみる。

「LLMをうまく使う」というよりも、「LLMを使わない・遅くする選択も含めて設計すること」を、思考の一部として見ているのがClaudeの立場だった。

3. Geminiの見解:「構築する力なしに選ぶと、ただ騙されるだけ」

Gemini も、ChatGPTの整理を「悪くないけど大事なところが抜けている」と見ていた。ただし、切り口はClaudeとは少し違う。

3-1. ChatGPTへの主な批判

① 「選ぶ側に回る」には、そもそも作れる力が要る

Geminiは、「AIが出した候補から選ぶ」というChatGPTの言い方に対して、次のように指摘する。

  • 自分でゼロから論理を組み立てられない人は、AIの論理の飛躍や嘘を見抜けない
  • 料理を作れなくても味見はできるが、論理を組み立てられない人が高度な論理の妥当性を評価するのは難しい

つまり、

「作る力を捨てて“選ぶだけ”に特化すると、
思考力は退化して、AIに騙されるだけになる」

② プロセスこそが理解の実体である

Geminiは、「書く苦しみそのものが理解を作るプロセス」だと言う。

  • 散らかった情報を、自分の頭で構造化し直す過程で、新しい回路が脳内に形成される。
  • 構造化フェーズをAIに丸投げすると、きれいな成果物は手に入るが、自分の中に深い理解は育たない

ChatGPTは「書く行為=理解の証拠」と捉えがちだが、Geminiからすると、「証拠」ではなく「生成プロセス」そのものが理解だ、という立場。

3-2. Geminiが再定義する「昔の思考」と「LLM時代の思考」

Geminiは、思考の違いを「登山 vs ヘリコプター偵察」という比喩で説明していた。

  • 昔の思考(登山型)
    • 一歩ずつ論理を積み上げて頂上を目指す
    • 足腰(論理構成力)が鍛えられる
  • LLM時代の思考(ヘリ+局所着陸型)
    • ヘリのように全体像を一気に俯瞰し、気になる地点だけ降りて詳細に検証する
    • 必要なのは、どこに降りるかという「着眼点」と、どの視点で評価するかという「評価関数」

ここでもやはり、ボトルネックは「出力速度」ではなく「評価する力」に移っていると見る。

3-3. Geminiが挙げる「真の思考」の3つのコア

Geminiは、「候補から選ぶ」だけでは不十分だとして、LLM時代の「真の思考」の要素を3つ挙げていた。

  1. コンテキスト(文脈)の設計
    • 単にプロンプトを書くのではなく、どれだけ固有の条件・前提を言語化して渡せるか。
    • ここで「状況の解像度を上げること」自体が思考になる。
  2. 構造化の往復運動(仮説検証ループ)
    • 自分の仮説と、AIの反論・代案をぶつけ合いながら、何度もスクラップ&ビルドすること。
    • 完成品を一度で作るのではなく、高速にループを回し、思考の強度を高めていく。
  3. 身体性・感性・倫理への回帰
    • AIは論理的に「正しい」ものは作れるが、「その時代の空気に合うか」「人の感情に触れるか」「楽しいか」まではわからない。
    • 論理をAIに任せるぶん、人間は センスや倫理観の側から「これが一番刺さる」と決める役割を担う。

3-4. Geminiの比喩

Gemini は最後に、こうまとめていた。

  • 昔の思考:レンガを積む左官職人
  • いまの思考:オーケストラの指揮者(ただし、自分でも楽器が弾ける指揮者でないといけない)

つまり、「組み立てる力」を完全に捨てて「選ぶだけ」になると、指揮者の資格も失う、というイメージだ。

4. 3者の見解を並べて見えるもの

3つの見解をざっくり要約すると、こんな構図になる。

  • ChatGPT
    • 変化の焦点:「問いの設計」「データの残し方」「物語の選択」に役割が移る
    • 書くこと・まとめることは、ビュー生成に近づく
  • Claude
    • 変化の焦点:「摩擦の消失」「不確実性からの逃避」「責任の希薄化」
    • 思考とは、むしろ あえて遅くする/答えを急がない力
  • Gemini
    • 変化の焦点:「構築する力を失ったまま“選ぶだけ”になる危険性」
    • 思考とは、作る力を持った指揮者として、文脈・ループ・感性をオーケストレーションすること

3つをまとめると、

  • LLMのおかげで「書く・まとめる」という作業は確実に軽くなった
  • その結果として、「問い」「痕跡の設計」「評価軸」「不確実性への態度」「身体性・倫理」のような、今まで“裏方”だった部分が、前面にせり上がってきた

5. ChatGPT / Claude / Gemini の比較表(総まとめ)

最後に、3つの立場を1枚の表にしておく。

観点 ChatGPTの見解 Claudeの見解 Geminiの見解
従来の「思考」のイメージ 自分で集め・構造化し・書き上げる一連のプロセス 対話や批判を含む社会的プロセス。孤独な脳内作業だけではない 一歩ずつ論理を積む「登山」。構築プロセスそのものが理解
LLM時代に強調するポイント 問いの設計、データ/痕跡の設計、AI出力から物語を選ぶこと 書く摩擦の消失、不確実性に留まる力、責任のギャップ 文脈(コンテキスト)の設計、仮説検証ループ、感性・倫理の役割
LLMの位置づけ 解釈・ストーリー案を量産するエンジン(候補生成機) 摩擦を消し、滑らかな答えをすぐ出す存在。だからこそ危うい 高速な構造化と代案提示ができる「優秀な参謀」
人間に残る役割 どの問いに賭けるか決める/どんな痕跡を残すか設計する/どの物語を自分の名で採用するか決める あえて遅くする・答えを急がない・自分の違和感に留まる・責任を本当に引き受ける ゼロから論理を組める力を保ちつつ、AIと往復しながら設計・評価・最終決定を行う指揮者
主なリスク認識 「まとめ」の価値が見えにくくなり、すべてをAIに任せてしまうこと 思考の摩擦が消え、「わからない」に耐える時間がゼロになること 「作る力」を失ったままAIの出力を“選んだつもり”になり、評価できない/騙される存在になること
キーワード 問い / 痕跡 / 選択 / ビュー 摩擦 / 不確実性 / 遅くする / 責任 文脈設計 / 鑑識眼 / ループ / 身体性 / 指揮者

3つのAIは、それぞれ違う角度から「思考する」を語っているけれど、共通しているのは、次のような点だった。

  • 思考 = きれいな文章を書くこと ではなくなっている
  • LLM時代は、むしろ
    • どんな問いに賭けるか
    • どんな痕跡を残すか
    • どんな基準で“これでいく”と決めるか
    • どこであえて立ち止まるか
    といった「メタ側の選択と設計」に、人間の頭を使う時代になっている

わたしが思うこと

いまの私にとって、LLM時代の「思考する」というのは、まずヘリコプターに乗って全体を眺め、気になる場所にだけ降りていく、その往復運動のようなものだと感じています。プログラムのデバッグと同じで、コード全体のランドスケープをざっと俯瞰し、「たぶんこの辺りが怪しい」とあたりを付けて一度そこに降りて掘ってみる。そこで一旦の納得感が得られたら、またヘリに戻って別の地点に移る。そのたびに、同じ一次データを違う角度から見直しながら、少しずつ「全体像」を更新していきます。

このとき土台になっているのは、やはり一次データです。昨日も、コード一式と実験の経緯をClaudeCodeに渡しただけで、1万字の論文が15分で出てきました。けれど、読んでみるとストーリーの方向性が自分の意図と少し違っていました。同じデータを使っていても、「何を目的に組み立てるのか」「どこにゴールポストを置くのか」が違えば、まったく別の論文になる。そこで改めて「研究の骨子」だけを別のLLMに作ってもらい、それを羅針盤として明示したうえで、「このコンパスに合わせてもう一度書いてください」とお願いしたところ、ようやく自分が向かいたい方向を向いたストーリーが立ち上がってきました。この経験から、「データさえあれば書き起こす必要はない」とはやはり言えない。コードやログといった一次データが土台として重要なのと同じくらい、「何を目的として読むのか」「どんな筋書きとして世界を見たいのか」という羅針盤を、きちんと言語化しておくことが重要だからです。

でも同時に、私たちが生きているのは「解釈世界」でもあります。世界そのものではなく、認知を通じて自分なりに世界を定義している以上、同じデータからでも本来いくつものストーリーが立ち上がりうるし、LLMはその複数の解釈を、ほぼ一瞬で提示してくれます。そう考えると、ひとつのアウトプットを「これが正しいかどうか」だけで扱うこと自体、あまり意味を持たなくなっているようにも思います。むしろ「こうも言えるし、ああも言える」中で、意図の違う論文や文章がいくつも生成できてしまう世界に、私たちはもう足を踏み入れているのでしょう。

そのなかで、思考の役割は「正解を探し当てること」ではなく、「無数の解釈にわざと触れながら、その中から自分が引き受けたい世界像を選び取り、それに責任を持って賭けていくこと」に変わりつつあるのだと思います。LLMが次々と解釈を差し出してくるなかで、自分にとって都合の悪い解釈や、自己否定につながる視点にもあえて触れながら、「それでも自分は、この世界を実現したい」と決める。そのうえで、データとコンパスさえしっかりしていれば、論文でもブログでも説明資料でも、その都度「今回はこの角度で」と一瞬で再生成していく。そのたびにまたヘリに乗り直して全体を俯瞰し、必要な場所にだけ降りていく。そのプロセス全体が、LLM時代における「思考する」という行為の、今の私なりの姿に一番近いのだと感じています。なぜなら、思考している私自身も、書いている私自身もつねに未完成であり、あとから別の解釈でものごとを見返し、そのたびに世界の見え方を少しずつ更新していく、そういう存在として生きているからです。

Share the Post: