當 AlphaGo 遇上 ChatGPT:第五章:Chain of Thought、Tree of Thoughts:

Chain of Thought、Tree of Thoughts:

把 AlphaGo 的靈魂裝進語言模型

當工程師開始要 LLM「多想幾步」時,
就出現兩個關鍵概念:

  • CoT(Chain of Thought):一步一步把推理過程寫出來

  • ToT(Tree of Thoughts):不只單線,而是多條分支的思考樹

CoT 像是 MCTS 中的一條模擬路徑——
走到底,看看結果怎樣。

但它有個問題:

中間只要一步錯,後面全錯。
沒有「回頭重來」的機制。

Tree of Thoughts 則更像 AlphaGo:

  • LLM 先生成多條可能的「下一步思路」

  • 再由模型自己去評估這些分支好壞

  • 搜尋演算法(類 MCTS)負責探索 & 剪枝

  • 最後保留「最有希望」的推理路徑

這樣的系統,
開始具備「反悔」、「回溯」、「全局觀」——
也就是 AlphaGo 那種「算路」的味道。

很多最新的「推理模型」(reasoning models),
其實就是在做一件事:

讓原本只會語言接龍的 Transformer,
學會用 AlphaZero 的方式「動腦」。


把前面所有東西收束在一起,你會得到一個很清楚的 AGI 架構藍圖:

  • Transformer / LLM
    語言、知識、概念、抽象思維

  • 世界模型(World Model, MuZero / Dreamer 那一掛)
    對「世界狀態」的表示與預測:
    如果我做這件事,環境會怎麼變?

  • 搜尋 / 規劃(MCTS / ToT / LMCTS 那一掛)
    模擬多種未來、比較結果、選擇行動

可以畫成一個很工程師風格的腦圖:

語言模型:負責「看得懂問題、講得出答案」
世界模型:負責「在腦子裡模擬世界的變化」
搜尋 / 規劃:負責「從模擬裡挑出最聰明的那一步」

這樣的系統,不只會聊天、寫 code、回答 AlphaGo 的原理,
還可以:

  • 真正理解「如果這樣做,三步後會怎樣」

  • 做長期規劃

  • 用自然語言解釋自己的推理過程

這已經遠超過「很會接龍的聊天機器人」,
比較接近我們心中「能思考的智慧體」的形象。

人工智慧,大型語言模型 原理,alphago,deepmind,value netowork,policy network.Transformer 架構,Chatgpt,Attention 機制,Claude,Gemini,LLM,opena,google,OPENAI,RAG,

留言

這個網誌中的熱門文章

不要再學 Prompt : 第 1 篇:新手完全不懂 Prompt,也能讓 AI 幫你生出專業 Prompt(超簡單)

蜀漢多代理智能架構 *AI 不是一個人工作,而是一個國家在運作。*

不要再學 Prompt: 第 2 篇:LLM 如何把人的意圖翻譯成高品質 Prompt?