贏少目的勝率會高於贏多目的勝率? - 圍棋

Isla avatar
By Isla
at 2017-05-26T23:07

Table of Contents

原PO底下推文不夠精闢 恥於同流另回一篇

※ 引述《solomn (九米)》之銘言:
: 看了討論文
: 說AI只考慮勝率
: 那麼為什麼贏少目的勝率會高於贏多目的勝率?
: 棋理是如何解釋
: 謝謝

這跟「棋理」沒有關係 是AG的運算模式所造成
簡單講就是剪枝對勝率影響的效果在某些時候會大過目數對勝率的影響效果
比如說今天要收官了 盤面大概AG贏20目
假設這時候有兩個選點:

A點:先手5目,可是後續一套比較複雜

B點:後手-5目,而且盤面上明顯在送,但可以減少10M個節點的計算量

由於AG「只管贏棋不管贏多少」的目標設定
經過勝率計算後很可能反而去選B點這種莫名其妙送菜的點
因為反正它現在還贏20目
它不需要去冒這10M個節點的計算風險 搞不好其中有殺龍翻盤手段
請注意...哪怕狗狗的TPU算度再強
程序本身所使用的蒙地卡羅法並沒有人類所謂「局部算清」的這種概念
它永遠面對的是仍有無數可能著點的全域...
在沒有辦法窮舉的情況下
大量減少分枝但是還可以贏的著點 雖然表面上在送
對電腦來講反而是最沒有風險的著點

這種為了減少計算量進行退讓的事情其實人類職棋也是常常在幹...
你看那讀秒階段 勝勢一方真的有辦法處處局部算清官子滴水不漏????
哪有可能~~~~~~~~
幾乎多少都會送一點 換取棋形的穩定

............只是說職棋送著送著送到被翻盤屢見不鮮
AG貌似送了一堆而且送的很荒謬但還是很穩

最後回到所謂「棋理」的部分...
所謂「棋理」我個人定義為窮舉後的最佳手法
在開局階段無論電腦或人類都不可能進行窮舉......
所以即使是AG也只能說是近於道 無法真正描述什麼是道
可是官子階段就不同了...
不只是職棋有辦法憑藉強大的局部計算能力算清
舊式的以暴力計算為基礎的圍棋軟體更是滴水不漏

我覺得AG應該設定成:
比如說它覺得勝利(或認輸)的標準是70%(或30%)
那接下來的遊戲進程就交給另一套以暴力計算為基礎的軟體來進行目數極大化的工作
以免後續的官子根本不能看XD
如果覺得這樣不保險
甚至可以嘗試寫一套判斷何時應該切換模式的學習程序讓AI學習...
只要抓住了轉換模式的時機
以AG強大的硬體配備跑暴力計算軟體 在後盤血虐職棋根本不是夢!


有夢最美...讓我們期待見證「棋理」的那一天!

哈哈哈哈~~~~~~~~

--
Tags: 圍棋

All Comments

Suhail Hany avatar
By Suhail Hany
at 2017-05-28T00:54
最後一段的學習程序可能有點困難? 既然不切換下也贏,
Linda avatar
By Linda
at 2017-05-30T10:04
說不定它自己穩定的學習結論就是永遠不切換 :p
Suhail Hany avatar
By Suhail Hany
at 2017-06-01T12:25
或者說缺乏適合的對練對象來進行這個學習
Linda avatar
By Linda
at 2017-06-02T16:26
精闢你__,廢話一堆
Kumar avatar
By Kumar
at 2017-06-06T04:31
我倒是覺得因為雙方接近的棋局, alphago展開的分支比較詳盡
Blanche avatar
By Blanche
at 2017-06-08T17:28
謝謝你另回這篇可以放心噓
Hamiltion avatar
By Hamiltion
at 2017-06-10T22:14
在新版本學習的過程中,被原本系統評估勝率過低而投降局
其後分支還會不會展開很難說
Audriana avatar
By Audriana
at 2017-06-12T21:36
最後不太可能 Google想做學會下棋的AI 不是完美的下棋機器
Catherine avatar
By Catherine
at 2017-06-14T19:56
換言之,如果AG判斷已經輸掉的局,他會投降而不是等對方出錯
Tom avatar
By Tom
at 2017-06-19T19:43
像今天配對賽,在AG投降之後,價值和策略網路大概就失效了
Annie avatar
By Annie
at 2017-06-19T22:26
大優勢和大劣勢行棋 AG 不會. 因為大劣勢的AG會投降
Tracy avatar
By Tracy
at 2017-06-20T08:16
所以大優勢, 大劣勢行棋永遠不會學習到網路中
Catherine avatar
By Catherine
at 2017-06-22T18:35
目前看來AG只學到從頭開始穩穩贏,還有勝率過低的時候會投降
Dorothy avatar
By Dorothy
at 2017-06-27T02:11
絕藝就是類似這樣的設計,所以死活問題很嚴重
Oliver avatar
By Oliver
at 2017-07-01T18:41
重點是,誰能讓AG大劣勢投降....
Skylar DavisLinda avatar
By Skylar DavisLinda
at 2017-07-04T11:33
優勢退讓, 劣勢送頭. 最後學到半目勝
David avatar
By David
at 2017-07-08T00:43
關鍵點:誰能讓阿法狗出現大劣勢 這已經是不可能的了
Odelette avatar
By Odelette
at 2017-07-09T22:33
李世石, 三寶, 醫療, 太空
Gilbert avatar
By Gilbert
at 2017-07-14T19:22
看後續數據會不會公布今天配對賽有沒有風向大逆轉
Odelette avatar
By Odelette
at 2017-07-17T13:26
在版上發5篇篇篇廢文也不簡單
Una avatar
By Una
at 2017-07-21T05:07
你的最後一段毀了這篇......
Anonymous avatar
By Anonymous
at 2017-07-22T22:12
收官時 如果都算清了 所謂多五目但有風險是何種風險?
Rebecca avatar
By Rebecca
at 2017-07-24T13:00
如果到官子時真的都算清了 送5目和多拿5目勝率應該都是100
Puput avatar
By Puput
at 2017-07-24T22:49
在勝率100時決策方式任意選或是單純選計算複雜度低吧
Yedda avatar
By Yedda
at 2017-07-25T05:55
若是官子時還有機率問題表示以AG算法那時也還沒算清吧?
Thomas avatar
By Thomas
at 2017-07-28T17:30
如果都算清了,贏1目和贏10目對電腦都是一樣的
Erin avatar
By Erin
at 2017-08-02T14:25
其實設個門檻當勝率到100時在100的步中選贏最多的
Lauren avatar
By Lauren
at 2017-08-07T04:14
亂下就很合理了,只要不亂下到會輸棋就可以了
Megan avatar
By Megan
at 2017-08-07T06:19
是都一樣 所以沒必要特別選1目的啊 所謂贏10目有風險那是
沒把贏10目那個算清吧
Eartha avatar
By Eartha
at 2017-08-08T21:12
因為你根本不懂官子要好到底是要加強MCTS還是VN啊
Tristan Cohan avatar
By Tristan Cohan
at 2017-08-11T05:08
對於AG組成之一的MCTS,結果只有勝和敗兩種,不存在
Leila avatar
By Leila
at 2017-08-15T09:47
贏多少目和輸多少目的差別
Isabella avatar
By Isabella
at 2017-08-17T09:25
或許這就是AG在自覺必勝和必敗時會出現亂下的原因吧
Madame avatar
By Madame
at 2017-08-19T14:24
若是在人類可"算清"的情形還有MCTS決策 是否有極為小可能
Doris avatar
By Doris
at 2017-08-23T20:16
的機率在AG必勝時意外下錯讓人反敗呢? 因為人已算清但MCTS
仍有機率巧合?
John avatar
By John
at 2017-08-24T17:24
當盤面越小時,MCTS的勝率估算會越接近真實的機率
James avatar
By James
at 2017-08-27T12:10
而且Alphago不是只有MCTS而已,還有深度學習的兩套網路
Isabella avatar
By Isabella
at 2017-08-31T03:23
若是真可算清 真實機率就是100 那MCTS給的就是99.9和99.8
我的意思就是比方說在MCTS機率大於99時 讓VN做主
Victoria avatar
By Victoria
at 2017-09-04T17:37
我會定義棋理為無法窮舉下大多情況下的近似最佳解
Ina avatar
By Ina
at 2017-09-05T17:21
人類對於最佳解的定義和AG不一樣吧,除非AG打掉重練
Liam avatar
By Liam
at 2017-09-08T18:36
重點還是RL策略網路的強度,愈強就愈不依賴MCTS
Catherine avatar
By Catherine
at 2017-09-12T11:41
深度學習是為了讓AI能用直覺贏得比賽
Callum avatar
By Callum
at 2017-09-14T07:13
而不是更加強化搜尋的準確度,那要等量子電腦實用化了
John avatar
By John
at 2017-09-15T07:55
玩RTS兵力贏太多時可以不用控兵輾過去,虧也沒關係
Olga avatar
By Olga
at 2017-09-18T20:57
180打120人口怎麼輸 飛龍騎臉也贏了 老子專業解說!!
Mason avatar
By Mason
at 2017-09-22T12:42
解釋得很清楚
John avatar
By John
at 2017-09-22T20:15
我看比賽改成柯潔讓阿法狗3子好了,最後勝負在2目之內
,反正贏棋的局面狗就亂放子
Blanche avatar
By Blanche
at 2017-09-24T20:50
感覺原PO演算法懂很多,加個收官模式,隨局面切換,
Liam avatar
By Liam
at 2017-09-28T04:50
然後判斷何時用什麼模式的精確度夠高,就又會贏
又能贏很多目了
Caroline avatar
By Caroline
at 2017-10-01T04:51
紅明顯 還是很多人覺得贏就是要贏到最多(?
Ethan avatar
By Ethan
at 2017-10-04T01:45
收官損目可以說AlphaGo收官能力不如職業棋士嗎?
Edith avatar
By Edith
at 2017-10-08T21:14
還是寧願損目也要搶先手是更高強的棋藝?
Odelette avatar
By Odelette
at 2017-10-12T14:30
在人工智慧上,減少硬體的計算負擔的確很重要
Charlotte avatar
By Charlotte
at 2017-10-13T16:31
對AG開發團隊,能用最少的計算量確保一定獲勝,
應該是他們的終極目標?
Tracy avatar
By Tracy
at 2017-10-16T17:59
以計算來說,不管是下在哪裡都是在減少分枝吧
Cara avatar
By Cara
at 2017-10-19T03:55
個人覺得出現官子亂下最大的原因還是在於MCTS
Sierra Rose avatar
By Sierra Rose
at 2017-10-23T17:37
只要贏就好 這對於設計程式比較簡單 幹嘛去下一堆設定
更何況人工智慧雖然進步飛速 都還是在開發階段 確立簡單
Sierra Rose avatar
By Sierra Rose
at 2017-10-26T00:31
可執行的目標比設定一堆目標還來得實際多
而且這本來就不是只為了陪人類下棋設計的
Kristin avatar
By Kristin
at 2017-10-26T22:07
贏越多越好 那AG就會下超猛的 從頭猛到尾
這又更不像人類了
Eden avatar
By Eden
at 2017-10-31T05:01
好奇原po從什麼資料位基礎做出這篇分析(?
Catherine avatar
By Catherine
at 2017-11-04T14:59
單純是目標設定問題,AG目標就只有估計勝率,勝率接近到它
分不出來的都是一樣的,沒有特別因為什麼理由選什麼變化
都只是從一堆以目標來說都一樣的變化隨機選而已
Michael avatar
By Michael
at 2017-11-05T01:58
現在目標根本是設定贏最少目吧
Mason avatar
By Mason
at 2017-11-07T21:51
那是因為贏多的時候AG早就投降了
Daph Bay avatar
By Daph Bay
at 2017-11-11T22:37
可以看deepmind CEO演講, 他們的目標是通用型AI平台
Jacob avatar
By Jacob
at 2017-11-16T01:19
希望作的東西可以應用到其他地方,且盡量靠演算法自己學規則
Aaliyah avatar
By Aaliyah
at 2017-11-17T17:57
而不會把人類經驗規則寫進去
Kumar avatar
By Kumar
at 2017-11-20T04:40
可以推測他們不會把alphago打些補丁變成人類理想的高手
Erin avatar
By Erin
at 2017-11-21T10:31
這件事會變得太過特化,對他們的長遠目標沒價值
Kumar avatar
By Kumar
at 2017-11-21T20:43
圍棋特化可能絕藝那邊會比較有興趣
Catherine avatar
By Catherine
at 2017-11-23T19:02
會一直朝最強圍棋軟體前進的只有zen吧,zen7快出吧
Donna avatar
By Donna
at 2017-11-25T00:57
但換個角度想 如果你想要局部優化 就很難建立真正的大局觀
當然你可以設計一個轉換模式演算法訓練他 但每個轉換都是不
精確的
Annie avatar
By Annie
at 2017-11-25T09:30
轉換模式跟deepmind理念背道而馳
Jake avatar
By Jake
at 2017-11-26T11:09
C大講得沒錯 局部計算 電腦絕對做得到
重點是從以前大家都覺得電腦做不到大局觀
所以真正的挑戰是建立大局觀 這才是AG的價值
Brianna avatar
By Brianna
at 2017-11-27T17:51
AG證明他們的演算法可以讓電腦模擬人類的棋局判斷
這就很厲害了 至於旁枝末節的局部計算
Candice avatar
By Candice
at 2017-11-30T02:47
對圍棋或許很重要 但這不是Google團隊真正要做的
只要不要太離譜下到輸棋 這一點點和人類不一致無傷大雅
George avatar
By George
at 2017-11-30T19:18
要記住 Google不是燒錢設計電腦來下棋的
Kumar avatar
By Kumar
at 2017-12-03T04:49
它們要做的是把這一套演算法應用到不同領域

若公布60盤Alphago自己對戰,人類能贏嗎

Oliver avatar
By Oliver
at 2017-05-26T22:48
我們知道,一月的時候人類與阿法狗共下了60盤快棋 但這60盤都是阿法狗獲勝 假如谷歌願意公布阿法狗自行對戰60盤,讓人類棋士好好鑽研 研究阿法狗是如何戰勝以及被打敗 假如有60盤的資訊,人類是否能找到Alphago的棋理? 再對弈有機會戰勝它呢? 希望谷歌可以往這方面考慮看看,當然直接跳出圍棋玩別 ...

團體戰 AlphaGO下出讓3目後,5虎將的表情

Erin avatar
By Erin
at 2017-05-26T21:07
團體戰 AlphaGO下出讓3目後,5虎將的表情 https://goo.gl/XckOwp https://goo.gl/GVdVjR AlphaGO 讓3目 , 5虎將反而投降, 哭笑不得 - ...

柯潔父親:柯潔實力是被逼出來的 他還沒

Suhail Hany avatar
By Suhail Hany
at 2017-05-26T21:06
柯潔父親:柯潔實力是被逼出來的 他還沒女朋友 作為本次人機大戰的“人類代表”,柯潔九段最近吸引了各方關注,柯潔九段的父親柯國 凡自然也不閑著,最近一直在現場關注棋局進行。26日,新浪對柯爸柯國凡進行了採訪。   對於兒子的前兩場表現,柯爸表示,自己也是一名棋迷,在自己來看柯潔第一局屬於 完敗,雖然是最小的 ...

贏少目的勝率會高於贏多目的勝率?

Madame avatar
By Madame
at 2017-05-26T20:45
看了討論文 說AI只考慮勝率 那麼為什麼贏少目的勝率會高於贏多目的勝率? 棋理是如何解釋 謝謝 - ...

說第一盤輸半目的是不是銅牌?

Noah avatar
By Noah
at 2017-05-26T18:44
乳題 一個黑收後的白1/4子勝 為什麼會被說是半目勝呢? 小丑最愛的泰哥神都知道是一目半 要怎麼跟銅牌小丑解釋 牠們才聽得懂呢? 還有很多參加過棋協C級裁判講習跟D咖島內職棋的也分不清 (好啦算了反正很多都馬繳錢換證而已) 棋協或成最大戰犯? 那以後遇到帶眼雙活 他們會算嗎? 還是其實都是銅牌 大家 ...