當 AlphaGo 遇上 ChatGPT:第二章:DCNN 與殘差網路——AlphaGo 的「宇宙引擎」

 

DCNN 與殘差網路——AlphaGo 的「宇宙引擎」


再往裡面拆,你會發現:
這兩顆網路其實都是 深度卷積神經網路(DCNN)

棋盤就像一張小小的 19x19 黑白影像:

  • 黑子 = 一種像素模式

  • 白子 = 另一種

  • 空點 & 其他特徵(氣、禁入點、劫等)= 更多通道

卷積網路做的事,就是用小視窗在盤面上掃:

  • 這裡是不是眼形?

  • 那裡是不是斷點?

  • 這串是不是快被吃光?

  • 這裡的陣勢厚不厚?

一層一層堆上去之後,
AI 開始不只懂「形狀」,還會懂「勢」、「厚薄」、「模樣」、「大局」。

為什麼要用 Residual Block?

當年一個大問題是:
網路堆太深,模型反而變笨——梯度消失、訓練崩壞。

殘差結構(Residual Block) 解決的是這件事:

它讓訊號可以「繞過」中間的轉換層,
就像在每幾層之間拉一條高速公路旁邊的「直通管線」:

output = F(x) + x

模型不用每一層都重造宇宙,只要學「在原本基礎上微調」。
這讓 AlphaGo Zero / AlphaZero 可以用上 非常深的 ResNet
抓到極其抽象的棋理。

為什麼 DCNN 特別適合圍棋?

因為圍棋是典型的「局部+全局」遊戲:

  • 眼形、生死題:局部圖案

  • 厚薄、勢力:中尺度

  • 全盤模樣、勝負:全局

DCNN 正好是:

  • 前面幾層看小範圍

  • 中間幾層看中尺度

  • 最後幾層整合成全局

你可以說:
圍棋對 DCNN 來說,是一種非常「自然」的語言。


第三章:從 AlphaGo 到 AlphaZero,再到 MuZero

========

本著作由大力士的AI天地創造 製作,以創用CC 姓名標示–非商業性– 禁止改作 4.0 國際授權條款釋出

留言

這個網誌中的熱門文章

不要再學 Prompt : 第 1 篇:新手完全不懂 Prompt,也能讓 AI 幫你生出專業 Prompt(超簡單)

蜀漢多代理智能架構 *AI 不是一個人工作,而是一個國家在運作。*

不要再學 Prompt: 第 2 篇:LLM 如何把人的意圖翻譯成高品質 Prompt?