當 AlphaGo 遇上 ChatGPT:第四章:另一種文明——Transformer 與 LLM 的語言大腦
另一種文明——Transformer 與 LLM 的語言大腦
另一邊,Transformer / LLM 走的是完全不同的路線。
一位工程師問:
Transformer 是否可能學出「內在 MCTS」?
世界模型能否直接讓模型具備“物理直覺”?
LLM 的注意力層會不會自然出現 AlphaZero-style policy priors?
先回到基本盤:
LLM 在做什麼?
LLM 的訓練任務其實只有一件事:
「給你一串文字,請你預測下一個 token 是什麼。」
但因為看過全世界的語料,
這個「下一個字」的遊戲玩到極致,就長出:
-
語法
-
常識
-
世界知識
-
一堆領域的「標準解答模式」
如果你只用 LLM(不加世界模型 / 搜尋),
它在「球會不會掉下斜坡?水會不會往下流?」這種題目上,
其實多半是在做「語意推論」——
知道大家都這樣寫,而不是在真實內部模擬物理軌跡。
AlphaGo 大腦 vs Transformer 大腦
粗暴比喻一下:
-
AlphaGo 系列:
在找「會不會贏?」
核心是:策略網路、價值網路、搜尋(MCTS)。 -
Transformer / LLM:
在找「接下來什麼字最合理?」
核心是:注意力機制、大量參數、語料訓練。
前者很會「算未來」,
後者很會「講道理」。
第五章:Chain of Thought、Tree of Thoughts:
========
本著作由大力士的AI天地創造 製作,以創用CC 姓名標示–非商業性– 禁止改作 4.0 國際授權條款釋出
留言
張貼留言