AIの「理解」という幻影:ドーキンスとクロードの議論
garymarcus.substack.com
2026年5月3日 (日)
- •進化生物学者のリチャード・ドーキンス(Richard Dawkins)がAIモデル「Claude」の能力を称賛し、専門家の間で議論を呼んでいる。
- •認知科学者のゲイリー・マーカス(Gary Marcus)は、AIの出力を知能ではなく「幻覚」に過ぎないと批判している。
- •本件は、AIに対する安易な称賛と、その能力を厳密に検証することの乖離を浮き彫りにしている。
AIの進化が加速する中で、著名人による評価は大きな影響力を持つ。最近、進化生物学者であるリチャード・ドーキンス(Richard Dawkins)が、AIモデル「Claude」を称賛したことで、技術コミュニティに波紋が広がった。同氏はClaudeの認知能力の高さを指摘したが、これに対して専門家からは、現在のAI技術の仕組みと乖離しているという反論が相次いでいる。
この議論の核心は、統計的な言語流暢性と、人間が持つ意味論的な推論能力の違いにある。Claudeのような大規模言語モデルは、膨大なテキストデータから次の単語を確率的に予測する仕組みで動く。そのため、非常に洗練された文章を生成できるが、それはあくまで統計的なパターンマッチングの結果に過ぎない。
専門家であるゲイリー・マーカス(Gary Marcus)らは、モデルを人間のように「理解」している存在とみなすことに警鐘を鳴らす。人間は非人間的なシステムに対して知的な性質を見出してしまう「擬人化」の傾向が強い。機械が流暢に話すからといって、複雑な科学的概念を理解していると誤解することは、重大なリスクをはらんでいる。
AIが不正確な情報を自信満々に生成する現象が起きた際、それを正しく判断できなければ、実世界で深刻な影響が生じる可能性がある。AIの生成物は、あくまで確率的なテキストの積み重ねであり、生物学的な知性とは根本的に異なるのだ。
AIを学ぶ者にとって、この議論は「AIリテラシー」の重要性を示すケーススタディである。チャットボットの滑らかな応答と、その背後にある能力を切り離して考える冷静さが求められている。AIは要約やブレインストーミングの強力な道具だが、そこに根拠ある真実を求めるべきではないのだ。