當 AlphaGo 遇上 ChatGPT:第二章:DCNN 與殘差網路——AlphaGo 的「宇宙引擎」
DCNN 與殘差網路——AlphaGo 的「宇宙引擎」
再往裡面拆,你會發現:
這兩顆網路其實都是 深度卷積神經網路(DCNN)。
棋盤就像一張小小的 19x19 黑白影像:
-
黑子 = 一種像素模式
-
白子 = 另一種
-
空點 & 其他特徵(氣、禁入點、劫等)= 更多通道
卷積網路做的事,就是用小視窗在盤面上掃:
-
這裡是不是眼形?
-
那裡是不是斷點?
-
這串是不是快被吃光?
-
這裡的陣勢厚不厚?
一層一層堆上去之後,
AI 開始不只懂「形狀」,還會懂「勢」、「厚薄」、「模樣」、「大局」。
為什麼要用 Residual Block?
當年一個大問題是:
網路堆太深,模型反而變笨——梯度消失、訓練崩壞。
殘差結構(Residual Block) 解決的是這件事:
它讓訊號可以「繞過」中間的轉換層,
就像在每幾層之間拉一條高速公路旁邊的「直通管線」:
output = F(x) + x
模型不用每一層都重造宇宙,只要學「在原本基礎上微調」。
這讓 AlphaGo Zero / AlphaZero 可以用上 非常深的 ResNet,
抓到極其抽象的棋理。
為什麼 DCNN 特別適合圍棋?
因為圍棋是典型的「局部+全局」遊戲:
-
眼形、生死題:局部圖案
-
厚薄、勢力:中尺度
-
全盤模樣、勝負:全局
DCNN 正好是:
-
前面幾層看小範圍
-
中間幾層看中尺度
-
最後幾層整合成全局
你可以說:
圍棋對 DCNN 來說,是一種非常「自然」的語言。
第三章:從 AlphaGo 到 AlphaZero,再到 MuZero
========
本著作由大力士的AI天地創造 製作,以創用CC 姓名標示–非商業性– 禁止改作 4.0 國際授權條款釋出
留言
張貼留言