You are here
Home > Google > AlphaGo進逼人類將進步:柯潔前50步堪稱完美!(附「為何是圍棋?」)

AlphaGo進逼人類將進步:柯潔前50步堪稱完美!(附「為何是圍棋?」)


 

今日AlaphGo與棋手共戰的中國烏鎮圍棋峰會上,在柯潔九段與 AlaphGo 的三番棋第二局有值得一談的精彩之處。根據AlaphGo的評估 ,柯潔在本場比賽的前50手棋堪稱完美,而前100手棋也是 AlphaGo Master 版本所經歷過的最佳對局。小編一直都認為人類與AI的圍棋峰會,再也不能再以戰不戰勝AlaphGo為目標,而是為能走得遠為目的。

 

正如Google所言,「這場具有歷史意義的賽事,不僅是人工智能發展領域一個重要的里程碑,同時也激發了一波創新思潮,讓人們對圍棋有了全新的思考。」

直播網址:google events

人類棋手柯潔

柯潔在賽後表示:

「比賽時我把手放在胸口上,是因為我覺得自己有勝出的機會,在比賽中段我一度認為離勝利已很近,不過,看來 AlphaGo 並不是這樣想。我當時非常緊張,甚至能感到自己的心跳加速。」

DeepMind 聯合創始人兼 CEO Demis Hassabis 對柯潔的評價表示認同:

「本局前100手棋是 AlphaGo Master 版本所經歷過的最佳棋局,我們在旁邊觀賽時也十分緊張。非常榮幸能與柯潔這樣的天才棋手對弈,我們仿佛看到了來自未來的棋局。」

中國圍棋棋聖聶衛平九段在賽後表示:

「這場比賽是 AlphaGo 獻給全世界職業棋手的一份大禮。」

DeepMind 的 AlphaGo 首席研究員 Dave Silver 介紹了他們如何評估柯潔的超凡表現:

「我們可以在比賽中隨時查詢 AlphaGo 對比賽的評估。AlphaGo 認為這場比賽極其勢均力敵,柯潔在開局時表現優異,直到比賽臨近尾聲時,AlphaGo 才認為自己勝卷在握。」

與週二 AlphaGo 執白 ¼ 子取勝的第一局比賽相比,英文評述員 Michael Redmond 九段表示:

「柯潔於這場比賽改變了戰術,使棋局變得盡可能複雜。這一定是他事先計劃好的,以測試AlphaGo 的弱點,而這也是 AlphaGo 特別所需的。」

Michael Redmond 九段作為唯一一名來自西方的九段圍棋選手,將 AlphaGo 於第二場的對弈表現形容為:

「在所有 AlphaGo 與人類的對局中戰鬥最複雜的一盤。柯潔一直在嘗試讓對弈變得複雜,並一直在測試 AlphaGo 的戰鬥力,但 AlphaGo 的表現滴水不漏。」

AlphaGo 的技術也讓其他評述員五體投地。英文評述員、前四段棋手 Haijin Lee 和殷明明一段誇讚 AlphaGo 結合了不同圍棋策略的能力。Lee 表示:

「AlphaGo 十分善於平衡實地,人類棋手則無法百分之百做到這點。始終搶佔實地或擴張外勢都不難做到,但普通人很難在二者之間靈活切換。」 殷明明亦同意道:「以前我們學習圍棋的時後,老師始終要求我們把一個戰略貫徹到底,而 AlphaGo 則給人類棋手上了全新的一課。」

韓語評述員金成龍九段也發表了自己的見解:

「AlphaGo 為我們定義了什麼是驚豔的表現。當人類藝術家在畫風景畫時,不管發生什麼都會一直畫下去。然而 AlphaGo 卻可以隨時切換,從一幅風景畫變成肖像畫。人類棋手有他自己的棋風,而AlphaGo完全沒有任何固定風格,可見它的靈活變通。」

日語評述員大橋拓文六段也對柯潔和 AlphaGo 的大師級表現表示了讚賞:

「我們從未見過如此激烈的對局。我驚訝於柯潔的能力以及他為比賽所做的充分準備。他在對局前半部分的表現無與倫比,此局比賽應該是一場十分接近的比賽,但AlphaGo最終還是更勝一籌。」

============

《為何是圍棋?》
在電腦與棋盤遊戲的歷史,人類棋手一直都有被電腦攻克的歷史:

  • 1952年,一位博士的研究項目,令電腦最早掌握的第一款經典遊戲是井字過三關。
  • 1994年,電腦程序Chinook成功挑戰西洋跳棋遊戲。
  • 1997年,IBM開發的超級電腦深藍進行國際象棋比賽,在國際象棋比賽中戰勝世界冠軍Garri Vaynshteyn加里·基莫維奇·卡斯帕洛夫。

圍棋的複雜性,有10的170次方種可能性,這個數字比整個宇宙中的原子數10的80次方都多。而且根據DeepMind創始人DemisHassabis的說法,圍棋不像象棋等遊戲靠計算,而是靠直覺。

「圍棋中沒有等級概念,所有棋子都一樣,圍棋是築防遊戲,因此需要盤算未來。你在下棋的過程中,是棋盤在心中,必須要預測未來。小小一個棋子可撼動全局,牽一發而動全身。圍棋妙手如受天啟。」

而AlphaGo應對圍棋的方法,採用的是機器學習技術,先通過訓練形成一個策略網絡,將棋盤上的局勢作為輸入信息,並對所有可行的落子位置生成一個概率分佈。然後訓練出一個價值網絡(valuenetwork)對自我對弈進行預測,以-1(對手的絕對勝利)到1(AlphaGo的絕對勝利)的標準,預測所有可行落子位置的結果。加上AlphaGo將這兩種網絡,整合進基於概率的蒙特卡羅樹搜索(MCTS)中,實現了它真正的優勢。最後,新版的AlphaGo產生大量自我對弈棋局,為下一代版本提供了訓練數據,此過程循環往復。  (ithome詳情

所以說,人類棋手在與AlphaGo對戰時,並不是一對一,而是一對無限,柯潔能做到「前50步堪稱完美」已經是意外之喜。人類在計算上輸給AlphaGo,惟一可能靠的就是AI沒有的「悟性」與EMP電磁脈衝

 


benny
熱愛電玩、足球及賺錢,個性貪玩,做事認真。為了買遊戲及玩樂花費,畢生鑽研投資理財之道,曾全職打機一年,想做就去做。
Top