當 AlphaGo 遇上 ChatGPT:第五章:Chain of Thought、Tree of Thoughts:
Chain of Thought、Tree of Thoughts:
把 AlphaGo 的靈魂裝進語言模型
當工程師開始要 LLM「多想幾步」時,
就出現兩個關鍵概念:
-
CoT(Chain of Thought):一步一步把推理過程寫出來
-
ToT(Tree of Thoughts):不只單線,而是多條分支的思考樹
CoT 像是 MCTS 中的一條模擬路徑——
走到底,看看結果怎樣。
但它有個問題:
中間只要一步錯,後面全錯。
沒有「回頭重來」的機制。
Tree of Thoughts 則更像 AlphaGo:
-
LLM 先生成多條可能的「下一步思路」
-
再由模型自己去評估這些分支好壞
-
搜尋演算法(類 MCTS)負責探索 & 剪枝
-
最後保留「最有希望」的推理路徑
這樣的系統,
開始具備「反悔」、「回溯」、「全局觀」——
也就是 AlphaGo 那種「算路」的味道。
很多最新的「推理模型」(reasoning models),
其實就是在做一件事:
讓原本只會語言接龍的 Transformer,
學會用 AlphaZero 的方式「動腦」。
把前面所有東西收束在一起,你會得到一個很清楚的 AGI 架構藍圖:
-
Transformer / LLM:
語言、知識、概念、抽象思維 -
世界模型(World Model, MuZero / Dreamer 那一掛):
對「世界狀態」的表示與預測:
如果我做這件事,環境會怎麼變? -
搜尋 / 規劃(MCTS / ToT / LMCTS 那一掛):
模擬多種未來、比較結果、選擇行動
可以畫成一個很工程師風格的腦圖:
語言模型:負責「看得懂問題、講得出答案」
世界模型:負責「在腦子裡模擬世界的變化」
搜尋 / 規劃:負責「從模擬裡挑出最聰明的那一步」
這樣的系統,不只會聊天、寫 code、回答 AlphaGo 的原理,
還可以:
-
真正理解「如果這樣做,三步後會怎樣」
-
做長期規劃
-
用自然語言解釋自己的推理過程
這已經遠超過「很會接龍的聊天機器人」,
比較接近我們心中「能思考的智慧體」的形象。
人工智慧,大型語言模型 原理,alphago,deepmind,value netowork,policy network.Transformer 架構,Chatgpt,Attention 機制,Claude,Gemini,LLM,opena,google,OPENAI,RAG,
留言
張貼留言