木遙:AlphaGo離圍棋之神還有多遠? - 圍棋

Donna avatar
By Donna
at 2017-01-05T14:09

Table of Contents


木遙:AlphaGo離圍棋之神還有多遠?
https://theinitium.com/article/20170105-opinion-AI-Go/

人類對人工智能發展速度的預期,常常既極端低估,又極端高估。

很多人都注意到,AlphaGo 的棋風有個有意思的特點:它很少下出「好棋」,也就是兇狠
的殺招,並且還時不時似乎下出緩手。它局面從未大幅領先過,永遠只贏一點點。為什麼
呢?

AI的棋風能不能更好看?

要訓練一個神經網絡,需要定義一個反饋函數,即告訴這個神經網絡怎樣的決策是好的。
在 AlphaGo 的設計中有個重要的細節:訓練 AlphaGo 的神經網絡時所採用的反饋函數只
依賴於輸贏,而同輸贏的幅度無關。換言之,對 AlphaGo 而言,贏一目的棋和贏十目的
棋一樣好,它追求的只是單純的勝負而已。

但單純追求勝率,實際上就意味着放棄追求大勝。因為在多元優化問題中靠近邊緣的地方
,不同的優化目標之間幾乎總是彼此矛盾的。比方說,如果一個局面需要考慮三手可能的
棋,第一手可以贏十目,有 70% 的勝率,第二手可以贏一目,有 80% 的勝率。第三手可
以贏二目,有 90% 的勝率。第二手棋顯然全面劣於第三手棋,不應該列入考慮。而值得
比較的第一和第三手棋之間,勝率高的選擇一定是勝利幅度較低的那一個。——很顯然,
這就是典型的帕累托優化問題。第二手棋不是帕累托最優的,或者說不夠接近優化的邊緣
。而在邊緣處的第一手和第三手,兩個指標的優劣一定彼此相反。

因此,AlphaGo 以單純勝負作為反饋函數的結果,就是 AlphaGo 總是選擇那些相對而言
更保證勝率而勝出幅度較小的棋。只贏一點點就夠了。

為什麼人類棋手(至少絕大多數)不這麼下棋呢?

因為這和人的思維方式不符。AlphaGo 可以這麼做的前提是極端精細的計算能力,從而得
以控制微小而穩定的盤面優勢。像是貼着水面飛行的鳥,最危險但也最省力。但人無法永
遠做出精確的計算,所以需要一次次努力擴大領先的幅度以維持一個安全的距離,防止一
着不慎勝負翻盤。所以 AlphaGo 會顯得遇強則強,但也很少下出「好看」的棋。甚至可
能因為過於追求全局取勝機率,下出在人類的視角看來局部並非最優的招式。反過來,通
過一番搏殺來取得局部勝利,在人類看來總是一件好事,而在 AlphaGo 看來,這也許只
是毫無必要地增加不確定性而已。

於是我忍不住設想,如果 AlphaGo 在訓練時採用不同的反饋函數會是什麼結果。不妨假
設存在一個 BetaGo,一切都和 AlphaGo 設定相同,只是反饋函數定義為盤面領先的目數
。(換言之,從一個正負之間的階梯函數變成線性函數。)可以猜測 BetaGo 的「棋風」
應該比 AlphaGo 兇狠許多,更追求殺着,更希望大贏。如果讓 BetaGo 和 AlphaGo 反覆
對戰,AlphaGo 贏的次數會更多,但平均而言 BetaGo 贏的幅度會更大。

或者更極端一點,乾脆採用盤面領先程度的平方乃至指數函數作為反饋,那會培養出什麼
暴躁瘋狂的算法呢?

AlphaGo 採用目前的設計是很好理解的,因為首先追求的目標還是證明 AI 能夠戰勝人腦
。但是從目前的情況來看,AlphaGo 似乎已經遙遙領先,那即使 BetaGo 勝率稍差,假以
時日應該也可以超過人類。而它的棋應該會好看很多。

好可惜,我們看到的不是 BetaGo。

人類的思考,和AI如何不同?

AlphaGo 是否會打劫,早就不成為爭議了。

但它其實根本就不應當有爭議。打劫只是圍棋中「不得全局同形再現」這一條規則的推論
,而這條規則對 AI 來說,實現起來再簡單不過:只要在搜索決策樹的時候,跳過所有已
經出現過的局面就好了。

這當然不是說,AlphaGo 的實現細節中一定沒有任何針對劫的專門邏輯存在。一些特定的
優化也許是有意義的。但是以為 AlphaGo 和人一樣,有必要去辨認劫的特性,選擇和保
存劫材,在多個劫同時存在的局面下做複雜的戰略決策,只不過是把人的思維方式錯誤地
套用在遵循完全不同邏輯的神經網絡上而已。神經網絡自我學習的特性,保證了只要讓它
遵循圍棋的基本規則,它完全可以「顯得」像是懂得複雜的圍棋概念,但這絕不意味着它
真的「在乎」這些概念。AlphaGo 的主要作者中的兩位 Chris Maddison 和 Aja Huang
在他們 2015 年發表過的一篇論文中寫過這樣一段話(原文為英文,以下是我的翻譯):
「很明顯,神經網絡內在地理解了圍棋的許多深奧的層面,包括好形,布局,定式,手筋
,劫爭,實地,虛空。令人驚異的是這樣一個單獨、統一、直接的架構就能把圍棋的元素
掌握到這個程度,而不需要任何明確的先導。」

歸根結底,劫是一個完全人為構造的概念。人們用它來描述自己的戰略,建構自己的思考
模式,就像別的圍棋術語一樣。但它只是刻畫,並非本質。如果 AlphaGo 有意識,它也
許會在面對人類的詢問時說:噢,原來你把我走的這一步叫做打劫啊。

但這是人類的缺陷麼?我們是否是在把一個本來應該用純粹的計算解決的問題毫無必要地
歸納於概念,然後又讓自己的思維囿於這些概念而作繭自縛呢?

恰恰相反。能夠迅速建立起高級抽象的概念,然後用它來簡化和指引決策,這是人類在千
百萬年間演化出的偉大能力,今天的人工智能還遠遠不能望其項背。藉助這些抽象觀念,
人們得以把全局問題分解為一系列局部的,可以簡明描述和推理的子問題,做出也許未必
在數值上嚴格最優,但是相當接近最優的判斷,從而取代人工智能需要耗費海量計算才能
作出的決策。更重要的是,這些抽象觀念可以讓一個人從極少數樣本中辨認本質、總結經
驗、汲取教訓、獲得成長。一個棋手從觀摩一盤棋中得到的教益,可以多於 AlphaGo 千
萬盤自我對局。AlphaGo 的神經網絡自我反饋訓練雖然有效,但是盲目。而人們知道自己
要學的是什麼。

這是人類智能最耀眼的優勢之一。

這引出了下面進一步的問題:這兩種思維方式是否有可能對接?能不能讓 AlphaGo 把自
己的決策過程翻譯為人類可以理解的概念和語言呢?

這件事在應用上的潛力顯而易見(用人工智能來輔助教學,當然不限於圍棋),但更重要
的是它在理論上的挑戰。AlphaGo 的決策過程是個黑箱,我們能夠提煉出它用來提取棋局
特徵的元素,但無法直接理解它們意味着什麼。我們不知道它們如何對應於人所熟悉的概
念,或者在那裏是否存在人們尚未總結出的新知識。我們當然可以看到它最終的結論,例
如一步棋是好是壞,可是僅有結論,並沒有太多用處。

但這裏仍然有做文章的餘地。AlphaGo 可以看做是一個記錄了自己每一次神經脈衝細節的
人工大腦,而機器學習的原理也可以應用在這些海量的記錄數據本身之上。不難設想,也
許可以訓練出另一個神經網絡,來識別出這些數據中對應於人類高級概念的特徵,從而設
法把 AlphaGo 的決策過程拆解和翻譯為人類熟悉的觀念模塊。如果可以實現這一點,人
類就可以更直觀地理解 AlphaGo。

我不知道這能否實現,但我希望可以。那將是一個重大的飛躍。

到那時,我們也許就可以看到人類棋手和 AlphaGo 在真正的意義上「覆盤」了。

我們離圍棋之神還有多遠?

AlphaGo 最大的未知數之一,是它自我對局訓練的效率。按照目前公開的訊息,它的棋力
一直在隨着時間穩定上升,假以時日,它的棋力還會進一步成長。

但這個預計完全在未定之天。事實上,過去這段時間以來它的棋力增長本身是個奇蹟,而
非必然。通過自我對局的輸贏反饋來提升能力,最大的問題在於容易陷入機器學習中所謂
「過擬合」的狀態。簡單地說,就是因為自己的對手也是自己,從而陷入一個自洽的邏輯
圈無法自拔。其結果是缺陷變成了優勢,盲點變成了禁區。初始經驗中的噪音,逐漸固化
成了金科玉律。實際上並不存在的界限,因為從來沒有試圖跨越,結果變成了真的限制。
最後「自以為」自己下得很好,而且越下越好,其實只是越來越適應自己而已。

DeepMind 的團隊當然想到了這個問題。他們的解決方案是不僅僅讓 AlphaGo 自我對弈,
也不斷讓不同等級的 AlphaGo 之間互相越級對弈作為校準,以避免出現隨着不斷進化,
客觀棋力反而萎縮的現象。問題在於,這種校準終究是在 AlphaGo 的「家族」內部進行
的。自己近親繁殖的結果是有些 bug 永遠都無法被自己意識到,只有在和棋風棋路截然
不同的對手的對弈中才有可能暴露出來。

譬如人類這個對手。AlphaGo 和李世石的對弈,可以看做是它第一次遇到和自己旗鼓相當
而截然不同的異類。於是它果然崩潰了一次。

其實和人類棋手相比,AlphaGo 也並非完全是天外來客。它最初的訓練來自大量人類棋手
的網絡圍棋對局,血液裏保存着人類棋手的基因。正因為如此,DeepMind 公司在過去幾
個月裏重新來過,在不依賴人類對局數據的基礎上,從零開始訓練新的圍棋程序,以探索
不落現有圍棋觀念窠臼的新道路。

但即便如此,它仍然無法避免有一天終究會落入過擬合的陷阱。要逐漸接近圍棋之神的境
界,可能需要不止一個競爭者出現,彼此切磋訓練才有可能做到。甚至可以想像,人們最
終會找到隨機生成新的圍棋算法的方法,海量生成大量競爭者。但要做到這一點,需要人
們對圍棋和人工智能有遠比今日更深刻的理解才行。

長遠來看,探索圍棋的規律,和探索圍棋算法的規律,在宏觀的時間尺度下本來不就是一
回事麼?

從某種意義上說,在遇到 AlphaGo 之前的人類圍棋,整體上也是一個自我繁殖而逐步陷
入過擬合的家族。雖然江山代有才人出,但是作為一個集體,始終在繼承着相似的傳統,
遵循着統一的範式。現成的定式和規律,已經被研究地如此透徹,以至於任何新穎的想法
都會因為初生時的弱小而曇花一現。在千年圍棋史上,也許只有本因坊秀策和吳清源曾經
以一人之力掀起過整個圍棋觀念的革命。絕大多數情況下,後來者只是在通過自己的努力
進一步強化既有的棋理而已。

直到 AlphaGo 的出現。

於是我們看到一個強大的傳統遇到了新奇而健壯的挑戰者。從一開始不屑的訕笑,變成了
敬畏的崇拜,直到最終勇敢的接納。這並非一朝一夕之功,當然總是會有抗拒和懷疑,會
有恐懼、憤怒和絕望。更坎坷的部分也許還在後面。但是這一步一旦走出,就無法再後退
了。

歸根結底,這是避免一個自我封閉的系統陷入衰敗的唯一途徑。固步自封,夜郎自大,築
起牆來抵禦想像中的危險,把自我適應的沉渣視為不可動搖的根本,絕無可能生生不息欣
欣向榮,而只會在自我滿足的道路上越走越遠。

當然,不止下棋是這樣。

面對人工智能,人類要失敗了嗎?

有趣的是,人類對人工智能發展速度的預期,常常既極端低估,又極端高估。在
AlphaGo 挑戰李世石,大多數人本能地拒絕相信人工智能可以達到這樣的高度,認為
圍棋中某些普遍被認為是屬於人類的強項,例如大局觀、直覺、平衡感、洞察力,是人工
智能不可逾越的高峰。甚至有些人在看到對局結果之後,還是固執堅信人工智能只是以暴
力和統計學堆疊出勝利,並沒有真正展現出人類大腦特有的能力。但另一方面,很多人又
在一夜之間開始擔憂人工智能統治人類的未來,似乎人工智能從學會下圍棋到征服世界,
只有一步之遙。

而事實是,人工智能早就開始在許多關於直覺和美的領域裏展現出創造性。三十年前,
Harold Cohen 已經開始能夠讓電腦自動畫出人們誤以為來自人類畫家的畫作。二十年前
,David Cope 編寫的程序寫出的肖邦風格的馬祖卡舞曲已經傳神到即使音樂專業的聽眾
也難辨真偽。歸根結底,人的大腦在功能性的層面上只是一架精密的機器而已。既然是機
器,就有被數值計算模擬和逼近的可能性。AlphaGo 所展現出的圍棋開局時良好的「棋感
」,再好不過地說明了所謂的直覺並非無法量化,只是無法被我們自己量化而已。

但這是人類的失敗麼?

從茹毛飲血的穴居時代到遊弋太陽系的今天,人類的進步從來就不體現為本身生物能力的
優越,而體現於不斷創造出工具成為自我的延伸。我們製作出的機器跑得更快,飛得更高
,算得更準,想得更深。但是歸根結底,定義人性的並不是我們的能力,而是我們的弱點
,以及我們為了克服自身缺陷和拓展未知的邊界所作出的艱苦卓絕的努力。在這個過程中
,在一次又一次失敗裏,我們砥礪心靈、認識自我、戰勝矇昧和愚蠢,然後成長。

我曾經和朋友談及有哪些人工智能還做不到的事情。朋友說:人工智能至少無法設計出
LIGO 這樣的科研工程來探測引力波。我說:我不相信。LIGO 當然是人類智慧的結晶,但
是考慮到人類所能掌握的資源的有限可能性,讓人工智能設計出整套方案並非不可能。
我真正覺得人工智能無法做到的,是「想要探測引力波」這件事。

所以機器的發明從不曾阻止我們在健身房裏揮汗如雨,或者尋求素數定理的一個又一個新
的證明。印刷術沒有取代書法,數字音樂的普及也無法消滅演唱會現場的淚水和歡呼。在
圍棋三尺天地的手談之中,在須臾之間寸爭勝敗的纖毫境界裏,人們所付出的長久凝視和
堅忍血汗,所尋找到的對世界和彼此的理解,絕不會因為 AlphaGo 的出現而煙消雲散。
它是我們的進步的一部分。

(木遙,現居紐約)

--
Tags: 圍棋

All Comments

Zanna avatar
By Zanna
at 2017-01-10T01:52
好文
Regina avatar
By Regina
at 2017-01-10T20:22
好棒
Ursula avatar
By Ursula
at 2017-01-11T09:35
如果DM真的想"探索圍棋", 該考慮考慮作這隻BetaGo吧~
Damian avatar
By Damian
at 2017-01-15T17:04
有可能做動態調整 但是訓練量會變成原來的很多倍 未必好
Andy avatar
By Andy
at 2017-01-20T04:02
第一段就看不下去= = master明明各種先手
Sierra Rose avatar
By Sierra Rose
at 2017-01-24T23:04
它評斷每一手價值的時候 根本不包括贏多少在內 只有輸贏
Faithe avatar
By Faithe
at 2017-01-28T03:10
蠻想看如果AG落後的時候會不會下"勝負手",還有選的點是跟
人類相近還是可笑的無理手
Kelly avatar
By Kelly
at 2017-02-01T23:29
好文,懂演算法也懂棋的人才能寫出來吧!!
Freda avatar
By Freda
at 2017-02-04T11:18
若偏向選高風險的點 Betago大概一盤都下不贏alphago
Genevieve avatar
By Genevieve
at 2017-02-06T02:38
中盤就大幅領先了好嗎……
Victoria avatar
By Victoria
at 2017-02-06T10:52
AG是機器學習 根本沒有教AG如何下棋的演算法 都是自己學的
Ula avatar
By Ula
at 2017-02-08T09:47
可能打職業棋士也輸多勝少 因為愛選大好大壞的點
Valerie avatar
By Valerie
at 2017-02-08T23:49
本文留給職業棋手很大的面子阿,都是先假設人類長期累
積下來的經驗法則是正確的再來推論,問題是單就圍棋來
Sarah avatar
By Sarah
at 2017-02-09T18:09
說好多局面就算給職業棋手來評都是"這樣下算不清,就簡
Gilbert avatar
By Gilbert
at 2017-02-11T09:36
單斷定是兩分吧",而以其它領域來看人類的經驗法則造就
Gilbert avatar
By Gilbert
at 2017-02-11T19:39
的盲區錯誤率,遠比統計或是科學數值計算下來的大的多
Barb Cronin avatar
By Barb Cronin
at 2017-02-15T02:24
Hassabis只是說過有考慮從零開始訓練,之後都沒說新
George avatar
By George
at 2017-02-16T18:09
版AlphaGO是從零訓練的,怎麼就直接認定是洗白的…
Heather avatar
By Heather
at 2017-02-20T21:47
把打劫講得這麼輕描淡寫,黃士傑:我論文寫好玩的QQ
Tristan Cohan avatar
By Tristan Cohan
at 2017-02-23T10:50
確實 如果都只選高風險高報酬的點 肯定打不過穩穩打的
Quanna avatar
By Quanna
at 2017-02-25T13:44
改動演算法有可能做到 但是運算量增加棋力也不一定變強
Todd Johnson avatar
By Todd Johnson
at 2017-03-01T04:57
查了一下本文作者木遙是UCLA數學PHD,目前在google工作
Sandy avatar
By Sandy
at 2017-03-04T13:47
AlphaGO 應該是前期低風險 中期判斷盤勢 逐漸提升報酬
這樣才能符合 並且有打贏的可能
Sarah avatar
By Sarah
at 2017-03-06T03:51
它現在的判斷方式就只看輸贏啊 這樣怎麼可能知道贏多少?
Andy avatar
By Andy
at 2017-03-07T15:00
這篇很完整
Valerie avatar
By Valerie
at 2017-03-08T23:54
本文足以做為電腦圍棋科普用的標準文章之一了,無論是技術
面的簡述跟未來的展望,其實都講得很好
Charlotte avatar
By Charlotte
at 2017-03-09T09:31
但前面幾句就想讓人吐槽了 不是很少下出好棋
Hedwig avatar
By Hedwig
at 2017-03-11T10:16
而是和人類下很少下出具侵略性的一手
Annie avatar
By Annie
at 2017-03-14T10:13
昨天看孟主播與陳耀燁的解棋,孟孟說AI的棋感覺是輕描淡寫
Charlie avatar
By Charlie
at 2017-03-15T10:56
也就是說不常下出人類覺得局部最好或最緊湊的手段的意思
Steve avatar
By Steve
at 2017-03-17T08:44
本文一開頭說"不常下出好棋",從前後文來看
Olivia avatar
By Olivia
at 2017-03-21T20:03
應該意思也是指"不是最好的一手"的意思八
Jack avatar
By Jack
at 2017-03-24T14:14
好強大的文
Olga avatar
By Olga
at 2017-03-28T04:28
很正常吧,用機率就不是要找最佳解,是找相對好的
Edith avatar
By Edith
at 2017-03-31T19:22
要棋風更好看很簡單,練習時不算,實戰時改變貼目量就好
Freda avatar
By Freda
at 2017-04-04T02:04
比如黑先貼17.5目,白先貼2.5目...之類的
Zora avatar
By Zora
at 2017-04-07T04:07
基本上就是讓子的概念,因為AG不求多只求勝,要給壓力
Edwina avatar
By Edwina
at 2017-04-09T07:10
應該說黑貼17.5,白貼2.5的負擔給AG,可以逼出AG潛力
Isabella avatar
By Isabella
at 2017-04-10T16:52
AlphaGo 只會下中國規則 除非同時訓練多種貼目數?
Xanthe avatar
By Xanthe
at 2017-04-14T05:48
對他來說讓子貼同樣目可能比較簡單,等於開始就從劣勢掙扎
Zora avatar
By Zora
at 2017-04-17T20:26
只要對手夠強他就會持續下出不放鬆的瘋狂棋路
Harry avatar
By Harry
at 2017-04-22T14:29
只是說這些職棋九段會願意接受這種比法嗎? Orz
Suhail Hany avatar
By Suhail Hany
at 2017-04-26T21:46
就看有沒有勇士敢跟它下十番棋啊 @@
Charlie avatar
By Charlie
at 2017-04-29T22:49
反而看他推出的結果一開始和人類差不多就知道我們幹
的不錯
Donna avatar
By Donna
at 2017-05-02T06:59
一堆中盤勝你跟我說沒有大幅領先
Belly avatar
By Belly
at 2017-05-05T10:14
以目前來說,Alphago對人類而言,就是圍棋之神無誤了!
Dorothy avatar
By Dorothy
at 2017-05-08T04:11
你不承認?啊不然..哩來哩來.. 職棋:想戰master,先過我
Suhail Hany avatar
By Suhail Hany
at 2017-05-09T19:01
除非master能讓三子贏人類棋王,不然離神還差的遠
Belly avatar
By Belly
at 2017-05-10T03:53
神是誰定義的?人贏不了神?那..怎麼樣都贏不了的不叫神?
Suhail Hany avatar
By Suhail Hany
at 2017-05-10T21:55
棋神必要條件之一:自己跟自己下,先手必和或必勝
Madame avatar
By Madame
at 2017-05-13T15:30
更正,應該是有權決定拿黑或拿白的那一方必和或必勝
Belly avatar
By Belly
at 2017-05-15T07:17
因為有貼目 所以有可能是先手必敗
Candice avatar
By Candice
at 2017-05-15T19:26
到底貼幾目才合理 也許AlphaGo已經有答案
Andy avatar
By Andy
at 2017-05-17T17:06
這文好神
Donna avatar
By Donna
at 2017-05-19T09:03
看得痛哭流涕
Kumar avatar
By Kumar
at 2017-05-20T06:51
推 在人類的價值描述那邊和我看法相同!
Gilbert avatar
By Gilbert
at 2017-05-23T06:18
我比較好奇為什麼圍棋之神就要追求最大目數勝,而不是最
大勝率,寫這篇文的也太偷渡前提。
Kristin avatar
By Kristin
at 2017-05-23T20:23
回樓上 應該就是低風險穩健的下法或許會濾掉很多更好的著手
Irma avatar
By Irma
at 2017-05-25T02:35
那是因為全知的圍棋之神可以輕鬆在100%必勝的前提下追求最
大目數勝,所以這並不算什麼偷渡概念,因為真的圍棋之神本
Daph Bay avatar
By Daph Bay
at 2017-05-28T14:56
來就兩者都做得到而且是「同時」做得到
Olive avatar
By Olive
at 2017-05-31T11:03
圍棋之神玩圍棋的時候,都先玩大老二決定黑白,決定完就玩
完了,連棋具都不用拿出來,只要準備一副牌就好
Noah avatar
By Noah
at 2017-06-02T12:36
最後一段好好
George avatar
By George
at 2017-06-06T13:07
...這篇推...對職業棋手打擊最大的是價值觀...
Skylar DavisLinda avatar
By Skylar DavisLinda
at 2017-06-11T11:57
@aaaba 如果讓子沒有半目而是剛好調到會和定的公平狀況,
Necoo avatar
By Necoo
at 2017-06-13T20:28
那連牌都不用拿出來呢!兩個圍棋之神說「來我們來下棋吧」
,下一句就是「OK和局」結束XD
Hedwig avatar
By Hedwig
at 2017-06-14T12:32
記得五子棋已被窮舉完了,所以那套AI就是五子棋之神了吧!
Callum avatar
By Callum
at 2017-06-17T06:51
道策吧?
Connor avatar
By Connor
at 2017-06-18T16:52
好文推推
Lucy avatar
By Lucy
at 2017-06-20T15:27

淺談AlphaGo

Yedda avatar
By Yedda
at 2017-01-05T14:05
※ 引述《ykes60513 (いちご)》之銘言: : 這幾天 AI又帶給了大家新的衝擊 : AlphaGo又再次進化了 而且遠超乎大家的想像 : 顯然之後AI會更加深入這塊圈子 : 影響只會越來越廣 不得不深思要怎麼看待這場新的革命 : 雖然有些人說AI能使圍棋的發展更進一步 但坦白說我是有些悲觀的 : 因 ...

有Master全60局的棋譜嗎?

Harry avatar
By Harry
at 2017-01-05T14:04
不用一次給全也沒關係 有棋譜的人儘量提供 看看能否收集到完整~ 我想應該很多人都想看看 感謝熱心提供者~ - ...

職業棋士的水平 vs AlphaGo

Eden avatar
By Eden
at 2017-01-05T12:01
感覺近代以快棋為多, 每一步棋都沒有求最佳下法, 這是不是近代圍棋的一種墮落? 就像人類的武術, 真實傳下來的不多了, 現在大部分的都是教表演性質一樣. 當大家都下半吊子的棋的時候, 你要贏也只要比半吊子好一點點罷了. 現在的圍棋已經不是一種對藝術的追求. 雖然我的棋力常沒辦法不救自己的大龍去搶大場, 但 ...

淺談AlphaGo

Quintina avatar
By Quintina
at 2017-01-05T11:46
※ 引述《nnlisalive (nnlisalive)》之銘言: : ※ 引述《ykes60513 (いちご)》之銘言: : : 假設A走法有90%贏一目 B走法有85%贏十目 AlphaGo會選前者 : 請問有誰知道90%或85%是怎計算出來的? : 因為對手還沒下 需要跑迴圈運算 : 這勝率統計是否有所 ...

淺談AlphaGo

Candice avatar
By Candice
at 2017-01-05T11:19
※ 引述《ykes60513 (いちご)》之銘言: : 假設A走法有90%贏一目 B走法有85%贏十目 AlphaGo會選前者 請問有誰知道90%或85%是怎計算出來的? 因為對手還沒下 需要跑迴圈運算 這勝率統計是否有所謂的信賴區間 再來是會不會有100%勝率落子的時候 當100%的路一出現 是否 ...