贏少目的勝率會高於贏多目的勝率? - 圍棋

Table of Contents

原PO底下推文不夠精闢 恥於同流另回一篇

※ 引述《solomn (九米)》之銘言:
: 看了討論文
: 說AI只考慮勝率
: 那麼為什麼贏少目的勝率會高於贏多目的勝率?
: 棋理是如何解釋
: 謝謝

這跟「棋理」沒有關係 是AG的運算模式所造成
簡單講就是剪枝對勝率影響的效果在某些時候會大過目數對勝率的影響效果
比如說今天要收官了 盤面大概AG贏20目
假設這時候有兩個選點:

A點:先手5目,可是後續一套比較複雜

B點:後手-5目,而且盤面上明顯在送,但可以減少10M個節點的計算量

由於AG「只管贏棋不管贏多少」的目標設定
經過勝率計算後很可能反而去選B點這種莫名其妙送菜的點
因為反正它現在還贏20目
它不需要去冒這10M個節點的計算風險 搞不好其中有殺龍翻盤手段
請注意...哪怕狗狗的TPU算度再強
程序本身所使用的蒙地卡羅法並沒有人類所謂「局部算清」的這種概念
它永遠面對的是仍有無數可能著點的全域...
在沒有辦法窮舉的情況下
大量減少分枝但是還可以贏的著點 雖然表面上在送
對電腦來講反而是最沒有風險的著點

這種為了減少計算量進行退讓的事情其實人類職棋也是常常在幹...
你看那讀秒階段 勝勢一方真的有辦法處處局部算清官子滴水不漏????
哪有可能~~~~~~~~
幾乎多少都會送一點 換取棋形的穩定

............只是說職棋送著送著送到被翻盤屢見不鮮
AG貌似送了一堆而且送的很荒謬但還是很穩

最後回到所謂「棋理」的部分...
所謂「棋理」我個人定義為窮舉後的最佳手法
在開局階段無論電腦或人類都不可能進行窮舉......
所以即使是AG也只能說是近於道 無法真正描述什麼是道
可是官子階段就不同了...
不只是職棋有辦法憑藉強大的局部計算能力算清
舊式的以暴力計算為基礎的圍棋軟體更是滴水不漏

我覺得AG應該設定成:
比如說它覺得勝利(或認輸)的標準是70%(或30%)
那接下來的遊戲進程就交給另一套以暴力計算為基礎的軟體來進行目數極大化的工作
以免後續的官子根本不能看XD
如果覺得這樣不保險
甚至可以嘗試寫一套判斷何時應該切換模式的學習程序讓AI學習...
只要抓住了轉換模式的時機
以AG強大的硬體配備跑暴力計算軟體 在後盤血虐職棋根本不是夢!


有夢最美...讓我們期待見證「棋理」的那一天!

哈哈哈哈~~~~~~~~

--

All Comments

Suhail Hany avatarSuhail Hany2017-05-28
最後一段的學習程序可能有點困難? 既然不切換下也贏,
Linda avatarLinda2017-05-30
說不定它自己穩定的學習結論就是永遠不切換 :p
Suhail Hany avatarSuhail Hany2017-06-01
或者說缺乏適合的對練對象來進行這個學習
Linda avatarLinda2017-06-02
精闢你__,廢話一堆
Kumar avatarKumar2017-06-06
我倒是覺得因為雙方接近的棋局, alphago展開的分支比較詳盡
Blanche avatarBlanche2017-06-08
謝謝你另回這篇可以放心噓
Hamiltion avatarHamiltion2017-06-10
在新版本學習的過程中,被原本系統評估勝率過低而投降局
其後分支還會不會展開很難說
Audriana avatarAudriana2017-06-12
最後不太可能 Google想做學會下棋的AI 不是完美的下棋機器
Catherine avatarCatherine2017-06-14
換言之,如果AG判斷已經輸掉的局,他會投降而不是等對方出錯
Tom avatarTom2017-06-19
像今天配對賽,在AG投降之後,價值和策略網路大概就失效了
Annie avatarAnnie2017-06-19
大優勢和大劣勢行棋 AG 不會. 因為大劣勢的AG會投降
Tracy avatarTracy2017-06-20
所以大優勢, 大劣勢行棋永遠不會學習到網路中
Catherine avatarCatherine2017-06-22
目前看來AG只學到從頭開始穩穩贏,還有勝率過低的時候會投降
Dorothy avatarDorothy2017-06-27
絕藝就是類似這樣的設計,所以死活問題很嚴重
Oliver avatarOliver2017-07-01
重點是,誰能讓AG大劣勢投降....
Skylar DavisLinda avatarSkylar DavisLinda2017-07-04
優勢退讓, 劣勢送頭. 最後學到半目勝
David avatarDavid2017-07-08
關鍵點:誰能讓阿法狗出現大劣勢 這已經是不可能的了
Odelette avatarOdelette2017-07-09
李世石, 三寶, 醫療, 太空
Gilbert avatarGilbert2017-07-14
看後續數據會不會公布今天配對賽有沒有風向大逆轉
Odelette avatarOdelette2017-07-17
在版上發5篇篇篇廢文也不簡單
Una avatarUna2017-07-21
你的最後一段毀了這篇......
Anonymous avatarAnonymous2017-07-22
收官時 如果都算清了 所謂多五目但有風險是何種風險?
Rebecca avatarRebecca2017-07-24
如果到官子時真的都算清了 送5目和多拿5目勝率應該都是100
Puput avatarPuput2017-07-24
在勝率100時決策方式任意選或是單純選計算複雜度低吧
Yedda avatarYedda2017-07-25
若是官子時還有機率問題表示以AG算法那時也還沒算清吧?
Thomas avatarThomas2017-07-28
如果都算清了,贏1目和贏10目對電腦都是一樣的
Erin avatarErin2017-08-02
其實設個門檻當勝率到100時在100的步中選贏最多的
Lauren avatarLauren2017-08-07
亂下就很合理了,只要不亂下到會輸棋就可以了
Megan avatarMegan2017-08-07
是都一樣 所以沒必要特別選1目的啊 所謂贏10目有風險那是
沒把贏10目那個算清吧
Eartha avatarEartha2017-08-08
因為你根本不懂官子要好到底是要加強MCTS還是VN啊
Tristan Cohan avatarTristan Cohan2017-08-11
對於AG組成之一的MCTS,結果只有勝和敗兩種,不存在
Leila avatarLeila2017-08-15
贏多少目和輸多少目的差別
Isabella avatarIsabella2017-08-17
或許這就是AG在自覺必勝和必敗時會出現亂下的原因吧
Madame avatarMadame2017-08-19
若是在人類可"算清"的情形還有MCTS決策 是否有極為小可能
Doris avatarDoris2017-08-23
的機率在AG必勝時意外下錯讓人反敗呢? 因為人已算清但MCTS
仍有機率巧合?
John avatarJohn2017-08-24
當盤面越小時,MCTS的勝率估算會越接近真實的機率
James avatarJames2017-08-27
而且Alphago不是只有MCTS而已,還有深度學習的兩套網路
Isabella avatarIsabella2017-08-31
若是真可算清 真實機率就是100 那MCTS給的就是99.9和99.8
我的意思就是比方說在MCTS機率大於99時 讓VN做主
Victoria avatarVictoria2017-09-04
我會定義棋理為無法窮舉下大多情況下的近似最佳解
Ina avatarIna2017-09-05
人類對於最佳解的定義和AG不一樣吧,除非AG打掉重練
Liam avatarLiam2017-09-08
重點還是RL策略網路的強度,愈強就愈不依賴MCTS
Catherine avatarCatherine2017-09-12
深度學習是為了讓AI能用直覺贏得比賽
Callum avatarCallum2017-09-14
而不是更加強化搜尋的準確度,那要等量子電腦實用化了
John avatarJohn2017-09-15
玩RTS兵力贏太多時可以不用控兵輾過去,虧也沒關係
Olga avatarOlga2017-09-18
180打120人口怎麼輸 飛龍騎臉也贏了 老子專業解說!!
Mason avatarMason2017-09-22
解釋得很清楚
John avatarJohn2017-09-22
我看比賽改成柯潔讓阿法狗3子好了,最後勝負在2目之內
,反正贏棋的局面狗就亂放子
Blanche avatarBlanche2017-09-24
感覺原PO演算法懂很多,加個收官模式,隨局面切換,
Liam avatarLiam2017-09-28
然後判斷何時用什麼模式的精確度夠高,就又會贏
又能贏很多目了
Caroline avatarCaroline2017-10-01
紅明顯 還是很多人覺得贏就是要贏到最多(?
Ethan avatarEthan2017-10-04
收官損目可以說AlphaGo收官能力不如職業棋士嗎?
Edith avatarEdith2017-10-08
還是寧願損目也要搶先手是更高強的棋藝?
Odelette avatarOdelette2017-10-12
在人工智慧上,減少硬體的計算負擔的確很重要
Charlotte avatarCharlotte2017-10-13
對AG開發團隊,能用最少的計算量確保一定獲勝,
應該是他們的終極目標?
Tracy avatarTracy2017-10-16
以計算來說,不管是下在哪裡都是在減少分枝吧
Cara avatarCara2017-10-19
個人覺得出現官子亂下最大的原因還是在於MCTS
Sierra Rose avatarSierra Rose2017-10-23
只要贏就好 這對於設計程式比較簡單 幹嘛去下一堆設定
更何況人工智慧雖然進步飛速 都還是在開發階段 確立簡單
Sierra Rose avatarSierra Rose2017-10-26
可執行的目標比設定一堆目標還來得實際多
而且這本來就不是只為了陪人類下棋設計的
Kristin avatarKristin2017-10-26
贏越多越好 那AG就會下超猛的 從頭猛到尾
這又更不像人類了
Eden avatarEden2017-10-31
好奇原po從什麼資料位基礎做出這篇分析(?
Catherine avatarCatherine2017-11-04
單純是目標設定問題,AG目標就只有估計勝率,勝率接近到它
分不出來的都是一樣的,沒有特別因為什麼理由選什麼變化
都只是從一堆以目標來說都一樣的變化隨機選而已
Michael avatarMichael2017-11-05
現在目標根本是設定贏最少目吧
Mason avatarMason2017-11-07
那是因為贏多的時候AG早就投降了
Daph Bay avatarDaph Bay2017-11-11
可以看deepmind CEO演講, 他們的目標是通用型AI平台
Jacob avatarJacob2017-11-16
希望作的東西可以應用到其他地方,且盡量靠演算法自己學規則
Aaliyah avatarAaliyah2017-11-17
而不會把人類經驗規則寫進去
Kumar avatarKumar2017-11-20
可以推測他們不會把alphago打些補丁變成人類理想的高手
Erin avatarErin2017-11-21
這件事會變得太過特化,對他們的長遠目標沒價值
Kumar avatarKumar2017-11-21
圍棋特化可能絕藝那邊會比較有興趣
Catherine avatarCatherine2017-11-23
會一直朝最強圍棋軟體前進的只有zen吧,zen7快出吧
Donna avatarDonna2017-11-25
但換個角度想 如果你想要局部優化 就很難建立真正的大局觀
當然你可以設計一個轉換模式演算法訓練他 但每個轉換都是不
精確的
Annie avatarAnnie2017-11-25
轉換模式跟deepmind理念背道而馳
Jake avatarJake2017-11-26
C大講得沒錯 局部計算 電腦絕對做得到
重點是從以前大家都覺得電腦做不到大局觀
所以真正的挑戰是建立大局觀 這才是AG的價值
Brianna avatarBrianna2017-11-27
AG證明他們的演算法可以讓電腦模擬人類的棋局判斷
這就很厲害了 至於旁枝末節的局部計算
Candice avatarCandice2017-11-30
對圍棋或許很重要 但這不是Google團隊真正要做的
只要不要太離譜下到輸棋 這一點點和人類不一致無傷大雅
George avatarGeorge2017-11-30
要記住 Google不是燒錢設計電腦來下棋的
Kumar avatarKumar2017-12-03
它們要做的是把這一套演算法應用到不同領域