當 AlphaGo 遇上 ChatGPT:第四章:另一種文明——Transformer 與 LLM 的語言大腦

 

另一種文明——Transformer 與 LLM 的語言大腦

另一邊,Transformer / LLM 走的是完全不同的路線。

一位工程師問:

Transformer 是否可能學出「內在 MCTS」?
世界模型能否直接讓模型具備“物理直覺”?
LLM 的注意力層會不會自然出現 AlphaZero-style policy priors?

先回到基本盤:

LLM 在做什麼?

LLM 的訓練任務其實只有一件事:

「給你一串文字,請你預測下一個 token 是什麼。」

但因為看過全世界的語料,
這個「下一個字」的遊戲玩到極致,就長出:

  • 語法

  • 常識

  • 世界知識

  • 一堆領域的「標準解答模式」

如果你只用 LLM(不加世界模型 / 搜尋),
它在「球會不會掉下斜坡?水會不會往下流?」這種題目上,
其實多半是在做「語意推論」——
知道大家都這樣寫,而不是在真實內部模擬物理軌跡。

AlphaGo 大腦 vs Transformer 大腦

粗暴比喻一下:

  • AlphaGo 系列
    在找「會不會贏?」
    核心是:策略網路、價值網路、搜尋(MCTS)。

  • Transformer / LLM
    在找「接下來什麼字最合理?」
    核心是:注意力機制、大量參數、語料訓練。

前者很會「算未來」,
後者很會「講道理」。


第五章:Chain of Thought、Tree of Thoughts:

========

本著作由大力士的AI天地創造 製作,以創用CC 姓名標示–非商業性– 禁止改作 4.0 國際授權條款釋出

留言

這個網誌中的熱門文章

不要再學 Prompt : 第 1 篇:新手完全不懂 Prompt,也能讓 AI 幫你生出專業 Prompt(超簡單)

蜀漢多代理智能架構 *AI 不是一個人工作,而是一個國家在運作。*

不要再學 Prompt: 第 2 篇:LLM 如何把人的意圖翻譯成高品質 Prompt?