中國版人機大戰緣何沉寂? 劉知青:缺乏 - 圍棋

Enid avatar
By Enid
at 2016-11-25T21:49

Table of Contents

中國版人機大戰緣何沉寂? 劉知青:缺乏研究人才

 文章來源:北京青年報

  一年前,在北京工體旁的網魚網咖,第一屆世界電腦圍棋錦標賽上,來自中國、韓國
、日本、美國、法國、捷克的圍棋人工智慧軟體捉對廝殺了3天後,總冠軍韓國的“石子
旋風”受讓5子,卻被中國七段棋手連笑擊敗。那時還無人知曉AlphaGo的大名。一年 過
去了,圍棋AI(人工智慧)早已被炒得火熱,去年曾在北京亮相的日本圍棋軟體“ZEN”
,也首次不受讓子,前天與日本著名棋手趙治勳九段戰成1比2。可這一年間,中國的圍棋
智慧軟體哪兒去了?

  阿爾法狗火了 中國AI卻沉寂

  “第二屆世界電腦圍棋錦標賽?早就確定不搞了。”首屆錦標賽媒體推廣人陳昭告訴
北京青年報記者,“中國研發人員覺得,如果達不到AlphaGo今年3月與李世石對陣的水準
,那還不如不露面。”

  去年,來自北京郵電大學、武漢大學,以及臺灣的三支中國隊伍參加了角逐。但最好
的一支國內隊伍僅獲第七名。在連笑輕鬆戰勝人工智慧冠軍“石子旋風”後,現場觀戰的
中國圍棋隊主教練俞斌九段認為,電腦真正下過人類,還得20年。

  今年3月AlphaGo4比1完勝韓國名將李世石,證明了智能的成長性。中國也隨即掀起討
論圍棋智慧的熱潮。又過了8個月,北青報記者發現,中國相關圍棋智慧研究,依然處在
缺乏政策傾斜,少有資金眷顧,各自為戰的鬆散局面。

  擁有天河二號不等於AI厲害

  當AlphaGo4比1大勝李世石,專家跌碎一地眼鏡之餘也指出,其成功之道不止是軟體
的突破,還有大金主的資金和硬體的支援。但當時就有中國棋友詰問:我們有天河二號啊


  天河二號超級電腦作為中國“最強大腦”,耗資一億美元打造,峰值計算速度每秒
5.49億億次,記憶體總容量1400萬億位元組。2015年以每秒33.86千萬億次的浮點速度,
第六次蟬聯世界超級電腦排行榜的冠軍。

  陳昭坦言,在策劃第二屆電腦圍棋錦標賽時,曾經聯繫過天河二號所在的廣州超算中
心。“聯繫了一陣,後來還是決定不搞了。”北青報記者從北京郵 電大學電腦圍棋研究
所所長劉知青教授那裡,瞭解到更多詳情。據他介紹,搞圍棋人工智慧,靠一個人,一台
電腦肯定不行,一定要有頂級硬體條件支援。“但另 一方面,我們還需要長期在圍棋人
工智慧領域工作的人才,還需要在軟體方面有所突破,才能真正把硬體優勢發揮出來。”
他說。換言之,沒有類似AlphaGo 那樣的智慧軟體,硬體再快也無用武之地。

  還在解讀AlphaGo論文階段

  那麼,中國圍棋智慧軟體水準目前處在什麼層次?劉知青一方面表示,這一年我們的
軟體水準還是有進步的,一方面也承認,目前大家的目標,就是解讀AlphaGo之前發表的
論文,“爭取達到它在今年3月的水準。”

  在AlphaGo之後,人工智慧領域最大的進步,當屬日本圍棋軟體DeepZenGo。去年的錦
標賽,“ZEN”還不能在程式間的對決中獲勝, 一年後已不受讓子勝趙治勳九段一盤。但
對此成績,劉知青並不太認同。“從去年受讓6子,到如今戰勝趙治勳,確實有進步,”
他說,“但還沒有達到 AlphaGo的水準。”

  即使如此,中國尚沒有匹敵“ZEN”的圍棋軟體。但劉知青認為,中國已走在正確的
道路上。“AlphaGo證明了人工智慧走神經網路,價值判斷的路是正確的,我們的AI也走
這條路。相信在消化吸收了AlphaGo的論文,我們會取得更多突破。”

  缺乏資金和政府層面支持

  值得注意的是,去年首屆錦標賽上,已經提出走商業化發展的中國圍棋AI,沒有在
AlphaGo打出的人工智慧風口推動下飛上天,反而陷入各自為戰的沉寂。

 AlphaGo與李世石的人機大戰剛過去一周,中國人工智慧協會就會同中國圍棋協會召開
論壇,邀請包括工程院院士李德毅、北郵校長林金桐等各界人士,討論人工智慧前景。而
具體到北郵電腦圍棋研究所研發的圍棋AI,最終也未獲得政府或大企業的青睞。

  那麼,是圍棋人工智慧的應用前景不被看好嗎?劉知青予以否認。他認為,AlphaGo
有強大的總體把握能力,可以簡明地把優勢轉化為勝勢。而圍棋問題有天文數字的狀態空
間和決策空間,解決圍棋問題,是證明人工智慧研究突破的重大節點。

  如此具有前景的應用領域,已經吸引了國外多個科技巨頭投入,而在中國似乎還處在
各幹各的局面。“比如前一陣,我們經政府牽線,與騰訊人工智慧部門談過合作,後來不
了了之,最近聽說他們在自己搞相關工作了。”劉知青說。

  劉知青坦言,中國目前其實不缺硬體,更不缺資金,缺乏的是長期在該領域投入的研
究人才和時間的累積。“目前中國在這一領域時間最久的就是我,也不過十餘年。未來中
國只有在人才積累,軟體科技積累達到一定水準,才能取得突破。”也許那時才是中國相
關人工智慧的真正風口。(記者 褚鵬)

http://sports.sina.com.cn/go/2016-11-25/doc-ifxyawmm3363951.shtml

--
Tags: 圍棋

All Comments

Rae avatar
By Rae
at 2016-11-29T11:57
alphaGo論文參數都出來了,起跑線就是定死在這邊,幹嘛要跟
劉知青合作,那樣還得派車回頭把他接來起跑線
Annie avatar
By Annie
at 2016-12-01T04:05
看這文章只說明了他是局外人
Daniel avatar
By Daniel
at 2016-12-03T14:46
就為了中國人的面子,堅持要搞一個完全自己的AI嘛
William avatar
By William
at 2016-12-08T02:27
@aaaba你確定照論文可以出一個打敗一般業餘選手的?
Anonymous avatar
By Anonymous
at 2016-12-08T07:00
不是我講的話你問我確不確定幹嘛...我上面推文中哪邊可以得
出你問題裡的敘述
Catherine avatar
By Catherine
at 2016-12-11T23:17
台灣又被偷渡在中國國內裡面了
Kelly avatar
By Kelly
at 2016-12-12T22:18
天河二只是跑分好看,至於AI https://goo.gl/xV8p4B
Brianna avatar
By Brianna
at 2016-12-17T09:12
都過多久了還在解讀論文,有點弱啊!
Hazel avatar
By Hazel
at 2016-12-20T11:59
硬體規格就是錢堆出來的 怎麼用才是重點吧
Candice avatar
By Candice
at 2016-12-24T19:41
see?alphaGo論文參數都出來了,起跑線就是定死在這邊.
從alphago的論文, 有定出起跑線?
Iris avatar
By Iris
at 2016-12-27T08:21
所以跟5F的陳述有關聯嗎?不要亂生話啊
Ida avatar
By Ida
at 2016-12-28T15:31
生完還想塞到別人嘴裡要別人解釋,莫名其妙
Ida avatar
By Ida
at 2016-12-28T19:00
前陣子的訊息是中國有AI已跟一般圍甲棋手打的差不多
Ophelia avatar
By Ophelia
at 2017-01-01T21:11
估計應不輸這次上場的Zen。後面1年大概仍是AlphaGo一支獨
Thomas avatar
By Thomas
at 2017-01-01T23:11
秀, 日本跟中國爭大老二。但拉到3年後? 就不好預測了。
Mary avatar
By Mary
at 2017-01-05T19:23
怕google沒興趣繼續投入圍棋AI。
Necoo avatar
By Necoo
at 2017-01-08T00:19
http://i.imgur.com/WDiv1pi.jpg 而且根據黃博士的說法,講
alphaGo的論文是中國軟體業大公司的起跑線,應該不為過,不
認同也就罷了,個人自由。但硬是想出一句風馬牛不相及的論
點然後要求對方解釋,還真的不曉得下限為何。
Ingrid avatar
By Ingrid
at 2017-01-11T19:10
@aaaba,話是你講的, 我是沒看到什麼起跑線的.
不然請你指出在哪?
Christine avatar
By Christine
at 2017-01-12T21:12
你先解釋5樓的言論吧?
Kelly avatar
By Kelly
at 2017-01-13T20:15
@aaaba,解釋什麼? 你自己說, 起跑線就在哪.
又說參數都有. 當然得問說是不是照招就有alphago囉
Jake avatar
By Jake
at 2017-01-14T02:43
至於你說是aja講的, 最少你給出的圖, 我看不出來他有講
Steve avatar
By Steve
at 2017-01-15T06:30
“照論文可以出一個打敗一般業餘選手的” <-- 這句話到底
是誰說的?
Frederic avatar
By Frederic
at 2017-01-16T18:19
你的意思就是這樣, 不然是什麼?
Edward Lewis avatar
By Edward Lewis
at 2017-01-20T17:45
還是你想AJA的話, 又解釋成你的樣子?
Carol avatar
By Carol
at 2017-01-25T09:38
我的意思不是這樣,不要生話塞給別人秀下限
James avatar
By James
at 2017-01-27T02:17
我是在說騰訊為何不用跟劉知青合作,你想到哪去了我可無法
理解
Vanessa avatar
By Vanessa
at 2017-01-31T23:55
起跑線跟騰訊為何不用跟劉知青合作有何關係?
Franklin avatar
By Franklin
at 2017-02-03T16:19
這跟你隨便找一個人來複製論文,卻打不過業餘棋手根本兩回
Ula avatar
By Ula
at 2017-02-06T02:14
更妙的是aja 沒講過你的:中國軟體業大公司的起跑線.
這樣的話, 是誰塞話給別人了?
Edwina avatar
By Edwina
at 2017-02-07T15:59
你先承認幫別人生話吧你
Rae avatar
By Rae
at 2017-02-12T05:01
你質疑的點換來換去,我就問你5樓的話是不是你生的?
Mason avatar
By Mason
at 2017-02-15T03:14
我沒幫你塞話, 話是你講的, 變我了?
Frederic avatar
By Frederic
at 2017-02-18T22:22
OUI
Victoria avatar
By Victoria
at 2017-02-20T04:11
aaaba:alphaGo論文參數都出來了,起跑線就是定死在這邊
英譯:flow alpahgo paper and you will get the same
Agatha avatar
By Agatha
at 2017-02-20T16:31
呵,我那句提了某人複製論文的棋力跟業餘棋手的關係
Zora avatar
By Zora
at 2017-02-25T00:13
as alphago.
Kama avatar
By Kama
at 2017-02-26T13:03
還需要中譯一次嗎?
另外, 塞別人話的人是你,你的截圖中AJA 什麼都沒講.
Daniel avatar
By Daniel
at 2017-03-03T00:26
結果到你口中, 變成中國企業的起跑線了.
Mary avatar
By Mary
at 2017-03-07T07:42
你複製論文不成功,干我屁事?
Emily avatar
By Emily
at 2017-03-11T06:22
哪你複製成功了?
你知什麼是supervise ?
Emma avatar
By Emma
at 2017-03-12T00:38
我又沒說複製論文就一定成功,你還要翻成flow什麼的,紅藍
式翻譯嗎?
Victoria avatar
By Victoria
at 2017-03-15T18:33
你沒說一定成功啊,意思是成功就是? 你知supervise?
Andy avatar
By Andy
at 2017-03-17T04:30
我那句說一定成功,你又在生話
Selena avatar
By Selena
at 2017-03-20T12:31
我不用知道supervise也知道你生話塞給別人
Ina avatar
By Ina
at 2017-03-23T18:37
癢癢
Ina avatar
By Ina
at 2017-03-28T08:07
不成功, 哪來起跑線? 還要轉?
你知什麼是deep learning 是supervise 的?
Gilbert avatar
By Gilbert
at 2017-04-01T22:46
不知什麼是supervise, 就別亂講, 照論文可以出起跑線.
還有,aja也沒講過什麼中國企業的起跑線之類的話.
Rebecca avatar
By Rebecca
at 2017-04-01T23:58
愛塞話的人是你. 別轉了.
Steve avatar
By Steve
at 2017-04-04T22:34
旋轉跳躍我B著眼~
Dorothy avatar
By Dorothy
at 2017-04-05T11:29
你起跑失敗也要怪東怪西?他論文寫在那邊,你複製的效果是
你家的事
Erin avatar
By Erin
at 2017-04-07T13:39
插個話 Lordaeron語文能力不太好 對話看得有點辛苦
Hazel avatar
By Hazel
at 2017-04-08T00:06
中文英文都不大好XD
Odelette avatar
By Odelette
at 2017-04-11T15:47
至少那些公司是先試圖重現alphaGo部分成果,不用回頭找劉知
青。然後你生那些英文,顯得可笑,沒有論述的單詞一直屁有
什麼用?
Brianna avatar
By Brianna
at 2017-04-15T02:34
一群銅牌
Delia avatar
By Delia
at 2017-04-16T03:19
說實在話 要複製AlphaGo的論文太難了 有太多訓練的技巧
Iris avatar
By Iris
at 2017-04-17T17:29
如果不知什麼是supervise,哪麼, 你的重現是什麼鬼?
Adele avatar
By Adele
at 2017-04-21T11:39
深度強化學習比普通的CNN要難訓練太多了 DeepMind那群人
是這方面的大師 別人複製不了很正常的 至少要花很久時間
Gary avatar
By Gary
at 2017-04-24T16:03
@ztdxqa, 你是?
Ingrid avatar
By Ingrid
at 2017-04-25T19:38
我是棋迷啊~
Selena avatar
By Selena
at 2017-04-27T16:07
@ztdxqa,又來幫別人講話了.
你等DeepMind?
Callum avatar
By Callum
at 2017-04-28T22:05
還是有試圖複製過AlphaGo的論文?
Ingrid avatar
By Ingrid
at 2017-05-01T12:22
z大說法中肯,哪像某人一副我如果複製失敗你來負責的拽樣
Carolina Franco avatar
By Carolina Franco
at 2017-05-06T09:51
連supervise 都不懂是什麼的人, 還可以幫別人生話.
說什麼起跑線的.
Anthony avatar
By Anthony
at 2017-05-09T23:56
我沒有複製過 但是知道非常的困難
Ophelia avatar
By Ophelia
at 2017-05-11T03:38
最i你der人4我 你怎麼捨der窩難過~
Yedda avatar
By Yedda
at 2017-05-14T06:00
沒你也知, 這麼強?
@aaaba, 我沒要你負責啊, 你從哪裏看出來?
Jessica avatar
By Jessica
at 2017-05-17T12:55
你是要說監督是學習嗎 幫你更正一下supervise"d" learning
Ursula avatar
By Ursula
at 2017-05-20T04:07
買個錶買個錶
Xanthe avatar
By Xanthe
at 2017-05-25T00:00
我只看到你說, 複製alphago 的論文, 就有alphago 而已.
而不知道, 什麼是supervised
Hedy avatar
By Hedy
at 2017-05-26T08:51
呵,z大人好好,我還真希望聽他多烙一些高深的英文詞彙
Ivy avatar
By Ivy
at 2017-05-30T09:46
不用多高深, 只是看到有人說複製alphago 的論文, 就有
Kristin avatar
By Kristin
at 2017-05-30T22:51
alphago而已,
還敢拿出aja的對話,來塞他話。
Olive avatar
By Olive
at 2017-06-04T19:48
One night in古亭 我liu下許多情~~~~
Suhail Hany avatar
By Suhail Hany
at 2017-06-06T02:02
又開始生話
Faithe avatar
By Faithe
at 2017-06-09T23:35
又開始裝傻了, 一樓的推文就在哪. 要吃回去?
Emily avatar
By Emily
at 2017-06-12T15:20
唉 原來妳也在這裡
小心手榴彈!
Sierra Rose avatar
By Sierra Rose
at 2017-06-16T21:44
還有你根據aja說法的哪一段, 也要吃回去了?
Genevieve avatar
By Genevieve
at 2017-06-18T15:01
你自己定義起跑線=複製成功,然後賴來我頭上,我的意思是那
些公司先從著手複製論文起步,你不要再生話了行不行
Faithe avatar
By Faithe
at 2017-06-22T14:05
妙筆生花 省話一哥
Genevieve avatar
By Genevieve
at 2017-06-25T22:22
哈...aaaba, 複製論文,參數都在哪, 不就是複製成功, 就
Blanche avatar
By Blanche
at 2017-06-26T17:57
有alphago了的意思?
但明明就不知什麼是需要supervise的.
Hedda avatar
By Hedda
at 2017-06-27T04:26
意思是, 結果的好壞, 是需要人去定義的.
連它是supervised 的方法要人去supervise都不知.
Michael avatar
By Michael
at 2017-06-29T16:56
更可笑的是還翻成英文然後更改文意,哪招?
Olga avatar
By Olga
at 2017-07-01T19:41
還敢說出, 複製論文就好了.
Brianna avatar
By Brianna
at 2017-07-03T10:59
你從不知道 我想做的不只是朋友~
Gilbert avatar
By Gilbert
at 2017-07-08T03:30
你不懂有參數代表可以少走很多冤枉路,也來在那邊秀下限?
這篇論文分享得很有誠意了,但能否成功,是看你自己的造化
Kumar avatar
By Kumar
at 2017-07-09T21:09
有參數又代表複製成功了喔?這招一直用,你煩不煩啊
Regina avatar
By Regina
at 2017-07-12T21:12
煩哪煩哪煩得沒有力氣煩哪 我煩啊
煩哪煩哪煩得不敢相信
煩哪煩哪煩得歇斯底里煩哪
Dorothy avatar
By Dorothy
at 2017-07-13T10:24
f君吃了什麼?我也點一份^_^
Thomas avatar
By Thomas
at 2017-07-16T11:33
AlphaGO的重點明明是reinforcement learning...
不懂為什麼一直提"supervise"
Tracy avatar
By Tracy
at 2017-07-19T02:07
我只知道supervised learning
Caroline avatar
By Caroline
at 2017-07-22T05:36
而且supervised learning也不是「人」去監督啊...
Emily avatar
By Emily
at 2017-07-22T18:25
不然是誰去教他哪個是對錯? 你懂參數會少走?
Carolina Franco avatar
By Carolina Franco
at 2017-07-23T14:26
AlphaGO的重點明明是reinforcement learning? 哪來的?
Frederic avatar
By Frederic
at 2017-07-26T00:34
樓上要不要先去學一下再來問?
Audriana avatar
By Audriana
at 2017-07-27T08:59
否則說的內容像外行,口氣卻很衝,很不協調
Olga avatar
By Olga
at 2017-07-31T09:33
論文有不少細節和參數沒有寫上去
Liam avatar
By Liam
at 2017-07-31T22:11
@Wush978, 哪還得讓你來教我一下呢.
Donna avatar
By Donna
at 2017-08-05T02:28
@forb9823018, 要不要先去學一下再來講,不然Wush978...
Charlie avatar
By Charlie
at 2017-08-09T00:45
我花了好幾個小時論文看過好幾次了
Joe avatar
By Joe
at 2017-08-13T21:13
看你的推文不知你又學了多少
不如指教一下
Oliver avatar
By Oliver
at 2017-08-18T05:41
光是一堆feature的詳細定義和怎麼得出來的都沒講了
James avatar
By James
at 2017-08-18T16:33
咦, 不是我說參數都在裏面的哦, 別扯到我頭上來.
這你得去問aaaba, 不是我.
而我還得去重學呢.
John avatar
By John
at 2017-08-21T03:10
不如你講一下一些feature怎麼實作
Edith avatar
By Edith
at 2017-08-23T20:53
所以我說論文有不少細節和參數沒有寫上去
這句話哪裡有錯?
Tracy avatar
By Tracy
at 2017-08-27T04:39
自己說自己也要去重學的人叫別人學一下再來講...
Carol avatar
By Carol
at 2017-08-29T04:21
請看清楚, 不然Wush978要怎麼講.
Harry avatar
By Harry
at 2017-08-30T01:11
論文有不少細節和參數沒有寫上去=>這句話哪裡有錯
又不是他對我的話有疑問是你有疑問當然問你
我管他怎麼講我又不是回他
Genevieve avatar
By Genevieve
at 2017-09-03T18:48
我覺得你沒錯, 但不代表aaaba及wush978, 而既然只是我
William avatar
By William
at 2017-09-05T16:43
覺得沒錯, 而Wush978叫我回去重學了, 只好提醒你囉.
Susan avatar
By Susan
at 2017-09-07T17:12
你覺得我沒錯那你又怎麼知道我沒學過?
Odelette avatar
By Odelette
at 2017-09-08T11:54
我也沒再回你是你自己跳出來對叫我回去學的
Hamiltion avatar
By Hamiltion
at 2017-09-12T08:24
我跟你都覺得沒錯, 而我要重學, 推得.
Zanna avatar
By Zanna
at 2017-09-12T23:21
我覺得就算能100%還原原文也頂多只能追到
跟原本發表時差不多的結果alphago這時不知又進步多
Agnes avatar
By Agnes
at 2017-09-17T22:30
哦, aaaba就說了, 照論文就能100%的了, 就是人家的起
Mary avatar
By Mary
at 2017-09-18T13:07
跑線了.
Hedda avatar
By Hedda
at 2017-09-21T23:32
機器學習很多時候都是想出一些看似可行的方法
Tom avatar
By Tom
at 2017-09-22T02:09
但實際效果如何沒跑過不知道
除非可以問deepmind團隊裡面個個名字的細節
不然很有可能光是複製就走很多冤枉路
Gilbert avatar
By Gilbert
at 2017-09-23T08:33
直接copy code 比較快吧.
Anonymous avatar
By Anonymous
at 2017-09-27T07:29
隨便找一個人來複製論文...就算是專家如果只有一個人
光是要複製不知要花幾年
我又沒說我認同他說的
Candice avatar
By Candice
at 2017-09-28T18:35
@forb9823018, 哇, 你完全和aaaba說法相反了呢.
Megan avatar
By Megan
at 2017-09-30T20:29
問題是他們研究那麼久的成果不可能你要就給你
因為要花很多時間訓練,然後發現某個步驟的名字定義
Delia avatar
By Delia
at 2017-10-05T18:12
當然不可能一篇就全講, 也不可能講得清的.
anyway,我在等Wush978開alphago 論文的課當中, 期待...
Necoo avatar
By Necoo
at 2017-10-08T07:09
不一樣就要整個打掉重來
Anthony avatar
By Anthony
at 2017-10-11T03:53
有論文當然比沒方向好 但deepmind團隊
Lucy avatar
By Lucy
at 2017-10-13T16:48
機器學習的專家全世界最頂尖的100人中裡面就佔好幾
個了
Hardy avatar
By Hardy
at 2017-10-16T14:32
他們重確定架構到微調成之後的強度也花了不少時間
Queena avatar
By Queena
at 2017-10-16T15:37
其他人不想做的原因是花很多人力物力只複製出很之前
的進度
目前其他還有在座的團隊的目標大概是
Jack avatar
By Jack
at 2017-10-19T07:40
能做出一般電腦能跑 齊力有一般職業水準
的電腦
最頂尖大概只會留給deepmind自己做了
Jake avatar
By Jake
at 2017-10-20T20:38
我只說了其他公司以複製該篇論文起步,然後論文裡有滿多訓
練時的參數非常有參考價值(沒完整卻也足夠讓其他公司做出超
越v13的版本了),而找劉知青來幫助不大。至於什麼保證百分
之百成功這些我沒說,有點羞恥心就別一直玩抹黑這套
Connor avatar
By Connor
at 2017-10-24T23:03
這麼快吃回去了? 還好推文還在呢.
等等等alphago 教學中....
Agatha avatar
By Agatha
at 2017-10-27T08:22
樓上這些人只是因為ptt不知道語氣於是在為了說話
細節上爭吵,有點可愛XD本來這些都是不需要爭的XD
Zora avatar
By Zora
at 2017-10-28T09:55
最強的軟體人才都去歐美了 中國最強的軟體人都搞電商了
至於AI 中國人大概還只拿來當遊戲 跟本沒有公司想做
Edward Lewis avatar
By Edward Lewis
at 2017-10-29T15:55
我就不信狂問別人supervise是什麼的人能有多少料,結果一說
Olga avatar
By Olga
at 2017-11-01T06:28
到feature就說自己要重學,然後靠著嘴炮到別人懶得回就在那
邊得意...
Charlie avatar
By Charlie
at 2017-11-02T06:15
@aaaba,我需不需要重學你不知道, 但你絕對是連哪是什麼
都不知, 就將話講滿了, 連AJA沒講的都塞給他了.
我就等大師來教我ALPHAGO 的論文.
Zora avatar
By Zora
at 2017-11-04T14:32
Wush978, 快來一篇吧.
Noah avatar
By Noah
at 2017-11-06T13:41
不知道reinforcement learning?肯定沒看論文
Regina avatar
By Regina
at 2017-11-09T23:34
明明是machine learning外行人,講話還這麼衝…
Aaliyah avatar
By Aaliyah
at 2017-11-10T20:50
我有沒有看論文, 是不是外行人, 就等你來教.
Kama avatar
By Kama
at 2017-11-15T01:43
你真內行, 就開一篇看看. 看你看論文看得怎樣.
John avatar
By John
at 2017-11-17T20:10
Wush978, 快來一篇吧.
Frederica avatar
By Frederica
at 2017-11-21T00:16
我怎麼覺得起跑線跟複製完全是兩回事,複製成功明明就是
終點線不是嗎XD
Cara avatar
By Cara
at 2017-11-25T18:22
然後Supervised中所謂好壞確實是人定義的,但不代表學習過
Carol avatar
By Carol
at 2017-11-29T04:05
程中需要人去看……,人類的Supervised是運作在學習前對使
Lydia avatar
By Lydia
at 2017-12-03T16:33
用的資料進行定義,以及學習後回顧檢查並解讀一下結果,學
習中人力是不介入的
Ivy avatar
By Ivy
at 2017-12-05T01:39
學習中要有人力介入的,叫做Semi-supervised learning
Cara avatar
By Cara
at 2017-12-07T15:42
不管是Supervised還是Unsupervised learning都是學習過程
Olive avatar
By Olive
at 2017-12-10T02:36
中不用人力監督的,因為那個Supervised根本不是在指學習過
Una avatar
By Una
at 2017-12-12T09:10
至於AlphaGo並非Supervised learning,這又是另一回事了
Madame avatar
By Madame
at 2017-12-13T13:33
連深度學習基礎都沒有、只會嗆的人該怎麼教…
Regina avatar
By Regina
at 2017-12-17T09:47
這已經不是半瓶水響叮噹了,根本是空瓶子吵死人XD
Jake avatar
By Jake
at 2017-12-19T06:26
如果你真的有興趣請去下載論文,搜尋reinforcement
等你把論文看完再來發問好嗎?不要再亂嗆人了唷
Victoria avatar
By Victoria
at 2017-12-23T04:25
@semihumanity, 就等你開一篇, 少在這reinforcement.
Joe avatar
By Joe
at 2017-12-27T21:18
Wush978, 沒開, 你可以來開.
你的Deep learning 的課,快開。
Annie avatar
By Annie
at 2017-12-28T01:06
別在這一直跳針式的扯reinforcement.
Catherine avatar
By Catherine
at 2018-01-01T04:14
提醒你們一件事, 自monte carlo方法出來後, 圍棋
AI 就有一次大的進展了, 而這些作AI 的人, 照你們的說
Regina avatar
By Regina
at 2018-01-01T17:55
法, 都是笨蛋, 將monte carlo和reinforcement結合.
Vanessa avatar
By Vanessa
at 2018-01-01T19:15
不就解決了, 等什麼BBC之類的呢。
Hedda avatar
By Hedda
at 2018-01-02T07:49
死不看論文,只會嗆人...你沒付錢,憑什麼要人教?
AlphaGO就是MCTS結合deep learning用reinforcement
learning學習,才得到這樣的棋力。
Kyle avatar
By Kyle
at 2018-01-05T09:21
結果還是不小心教了...伸手黨真是不可取
Tom avatar
By Tom
at 2018-01-10T08:59
同領域的看推文就知道有沒有料了
Franklin avatar
By Franklin
at 2018-01-12T16:39
樓上太佛了
Connor avatar
By Connor
at 2018-01-15T05:13
@semihumanity,Wush978. 台大剛好有篇文章, 自己看.
Caroline avatar
By Caroline
at 2018-01-17T03:25
太佛了.
Connor avatar
By Connor
at 2018-01-20T15:09
要是單單reinforcement有用, 還用等到CNN的加入?
Caroline avatar
By Caroline
at 2018-01-25T14:50
而通過自下的方式增強棋力, 正是AJA 的畢業論文.
Vanessa avatar
By Vanessa
at 2018-01-26T05:26
而他的畢業作品程式, 就嬴過一次圍棋AI 冠軍.
Lucy avatar
By Lucy
at 2018-01-31T02:39
要是單單這個可這麼強, 哪就不會只有一次了.
Ursula avatar
By Ursula
at 2018-02-02T07:48
又在生話了,別人沒說“單單”,自己在那邊單單
Charlie avatar
By Charlie
at 2018-02-04T07:04
哈....不是用XXX才有嗎? 哪不用就沒有了呢.
所以主要是reinforcement 啊.
但偏偏aja的畢業論文就是value net 哪套了.
Megan avatar
By Megan
at 2018-02-06T13:15
根據『 http://0rz.tw/YzQSX 』,大陸不是有
Kelly avatar
By Kelly
at 2018-02-09T14:34
「神威‧太湖之光」嗎?她平常每日CPU time不是只用到60%
Oscar avatar
By Oscar
at 2018-02-09T23:17
還好我們不同領域,也還好我也可以看推文就知道有沒有料
David avatar
By David
at 2018-02-11T05:28
,可以用她寫類似AlphaGO的東東,也可以不用使用DeepMind
Carol avatar
By Carol
at 2018-02-13T05:41
的程式構想方式,只要找對人,應該很快就可以和AlphaGO分
Selena avatar
By Selena
at 2018-02-17T06:52
先了。
Dinah avatar
By Dinah
at 2018-02-17T20:50
那你前面講的supervised 用你自己論點打不就更可笑嗎?XD
Aaliyah avatar
By Aaliyah
at 2018-02-18T06:44
啊?我打什麼了? alphago的重點是supervised.
Noah avatar
By Noah
at 2018-02-22T07:39
是誰跳出來加持一下reinforcement?
有沒有料, 一看就知道...
Susan avatar
By Susan
at 2018-02-27T00:45
fuego 就是用CNN supervised加強可以贏GNU GO 達97%
而你們兩位口中的reinforcement 在aja的論文就有了。
Susan avatar
By Susan
at 2018-03-02T22:15
無知還狂問別人supervise是什麼,哈哈哈
Caroline avatar
By Caroline
at 2018-03-04T07:51
alpha go 的重點是過去人類的棋譜還是他自己下的?
Harry avatar
By Harry
at 2018-03-08T12:13
重點在reinforcement的話, aja 的程式的結果要比fuego
好才對.
Caroline avatar
By Caroline
at 2018-03-10T21:40
所以說你外行啊,這行哪有這麼簡單「有用這個就會強」
Hedy avatar
By Hedy
at 2018-03-11T16:55
「因為aja過去的AI只拿一次冠軍所以reinforcement learni
ng 不重要」 能下出這種推理,我是覺得也太...
Freda avatar
By Freda
at 2018-03-14T00:25
而且連reinforcement是一個類別也不知道,說什麼早就有用,
用起來學問可大了,不是一句有用過就完事了
Edward Lewis avatar
By Edward Lewis
at 2018-03-18T17:39
越講破綻越多XD連訓練方式和網路架構都分不清楚
Jacob avatar
By Jacob
at 2018-03-22T04:53
你以為reinforcement learning只有一個algorithm?
CNN只有一種訓練方法?
Ula avatar
By Ula
at 2018-03-26T16:01
原來是AI版 我還以為是圍棋版
Victoria avatar
By Victoria
at 2018-03-30T05:17
AlphaGO如果沒用reinforcement learning,
Rae avatar
By Rae
at 2018-04-03T14:32
只用人類棋譜做supervised learning,程度就是業餘
段位而已
Frederica avatar
By Frederica
at 2018-04-04T23:30
不讀論文,只會講一些似是而非的東西
Sierra Rose avatar
By Sierra Rose
at 2018-04-07T00:16
真精彩!看到這裡,先打個卡,明天續看
George avatar
By George
at 2018-04-07T19:25
@semihumanity,Wush978, 有用到又如何?
Zanna avatar
By Zanna
at 2018-04-08T05:54
@Wush978, 不然主要是什麼?
還要轉嗎?
Susan avatar
By Susan
at 2018-04-11T05:06
我有說過AlphaGO沒用reinforcement learning?
Kumar avatar
By Kumar
at 2018-04-15T00:12
Alpha GO棋力會強是因為過去人類的棋譜還是他自己對自己
的棋譜?
Olga avatar
By Olga
at 2018-04-19T23:29
還是說重點不是reinforcement learning.
@Wush978, 當然是過去人類的譜.
Kyle avatar
By Kyle
at 2018-04-22T05:21
要是自己對下的譜, 哪aja 的論文就夠了.
Frederic avatar
By Frederic
at 2018-04-22T06:36
內行?
Charlotte avatar
By Charlotte
at 2018-04-24T04:59
就有人一直鬼扯別人都不懂. 懂不懂, 很清楚.
Heather avatar
By Heather
at 2018-04-24T23:43
真的是活在自己的世界耶~AlphaGO是靠自我對奕三千萬
盤才達到職業九段以上的棋力好嗎?
Ula avatar
By Ula
at 2018-04-27T16:56
論文和DeepMind的宣傳都有講,您為什麼要這樣呢?
Hardy avatar
By Hardy
at 2018-04-29T09:21
Lordaeron還是先去看論文好了 別再秀下限了
Lily avatar
By Lily
at 2018-04-30T12:22
@semihumanity,誰不得論文, 很清楚的.
Victoria avatar
By Victoria
at 2018-05-04T21:28
真正把AlphaGo推到職業頂尖的關鍵就是DRL
Kristin avatar
By Kristin
at 2018-05-08T03:19
文中清楚的跟你講, 它是improving SL.
但是在SL 的基礎上作的.
Kama avatar
By Kama
at 2018-05-11T17:31
中譯, 就是你沒有SL 作底, 你是什麼?
Todd Johnson avatar
By Todd Johnson
at 2018-05-15T21:29
論文裡面的描述是學習有三階段, SL of policy network,
Puput avatar
By Puput
at 2018-05-19T06:32
RL of policy network, RL of value network
我是不太喜歡爭論SL重要還是RL重要,因為這種行為本身就
外行。但是說RL不重要,我是笑了
Rosalind avatar
By Rosalind
at 2018-05-19T17:27
算了算了~他活在自己的世界開心就好XD
Poppy avatar
By Poppy
at 2018-05-20T06:18
餵棋譜只是給AlphaGo一個common sense 這樣能到的棋力只
Olga avatar
By Olga
at 2018-05-24T21:23
有業餘高段 有點像是他的pretrained model
Kama avatar
By Kama
at 2018-05-29T07:38
接下來再靠自我對局去調整 事實上整篇paper講的都是RL
Carolina Franco avatar
By Carolina Franco
at 2018-05-29T23:11
policy跟value這兩個詞也是RL領域的術語 deep learning
John avatar
By John
at 2018-05-31T19:24
只是要把傳統RL generalize到實際問題的方法
Jack avatar
By Jack
at 2018-06-02T03:50
@Wush978,這麼快, 就不玩了?
Frederica avatar
By Frederica
at 2018-06-02T14:19
@semihumanity,的確是活在自己的世界就好了, 連有過
什麼論文都不知.
Regina avatar
By Regina
at 2018-06-03T01:35
而RL 是imporived SL, 當然RL比較常見.
Damian avatar
By Damian
at 2018-06-03T15:23
同樣是CNN的狀況, ALPHAGO就大輸fuego.這要算業餘高段?
Tracy avatar
By Tracy
at 2018-06-04T00:28
AlphaGO大輸fuefgo!XDDDD
Selena avatar
By Selena
at 2018-06-04T02:12
害我笑到打錯字XD
Lily avatar
By Lily
at 2018-06-04T19:51
這串看完 覺得大家好有耐心 不要理他不就好了嗎 何必呢
Todd Johnson avatar
By Todd Johnson
at 2018-06-09T16:07
RL不是improved SL,這兩個東西不一樣
Xanthe avatar
By Xanthe
at 2018-06-11T08:56
AlphaGO大輸FGO 以手遊來說
Zenobia avatar
By Zenobia
at 2018-06-13T02:16
不看論文的穿了哦!
Zora avatar
By Zora
at 2018-06-13T13:08
第一次在go板看到透過曝露自己短處來獲得快感的人,總是會
多看幾眼,久了就會開始無視了
Enid avatar
By Enid
at 2018-06-15T03:04
你們都是資訊專家嗎,好強喔,我啥都不懂
Ivy avatar
By Ivy
at 2018-06-16T01:51
@aaaba,你不就是了, 當然Wush978+semihumanity三人組
Cara avatar
By Cara
at 2018-06-19T15:33
原來是不看論文的人,狂叫人家看論文.
Bennie avatar
By Bennie
at 2018-06-21T08:05
圍棋AI 哪幾支的論文都沒看過的人, 卻是內行人呢.
Ethan avatar
By Ethan
at 2018-06-25T13:23
@blacktom,我是在相關領域工作多年了,只是看到有人發
表一些錯誤概念,上來聊聊罷了
Elma avatar
By Elma
at 2018-06-27T20:16
要說服當事人我看是很難,但求錯誤的資訊別誤導人就好
Blanche avatar
By Blanche
at 2018-07-02T11:32
RL對於alpha go 是相當重要的,根據nature 上的Mastering
the game of Go with deep neural networks and tree sea
rch 中可以得知,Alpha go 的機器學習分成三階段:SL of
Annie avatar
By Annie
at 2018-07-04T21:47
policy network, RL of policy network and RL of value
network. 其中SL of policy network的部分,主要都是採用
Elvira avatar
By Elvira
at 2018-07-06T16:47
相關工作的方法,並沒有看到太多新的東西, Paper中主要
Necoo avatar
By Necoo
at 2018-07-06T18:25
cite了5篇之前關於圍棋AI的工作。RL of policy network的
Ina avatar
By Ina
at 2018-07-09T09:04
部分讓SL的結果從預測下一手的問題轉成贏棋>
Charlie avatar
By Charlie
at 2018-07-13T21:58
事實上,這篇paper自稱最大的改善是在policy 和 value
Oliver avatar
By Oliver
at 2018-07-16T13:06
function 上,所以他們主要的貢獻在於導入Deep Learning
相關方法來解決圍棋AI的問題。
看下來,說RL對Alpha Go不重要的理由到底是什麼?
Hedy avatar
By Hedy
at 2018-07-18T23:11
明明內容中都在講RL比較多了,SL都是之前的工作
Aaliyah avatar
By Aaliyah
at 2018-07-22T16:38
不過Alpha GO說不定最主要的貢獻是發展在GPU上根據policy
and value network做搜尋的算法,因為他們propose的做法
計算量太大了,所以需要借助GPU等硬體工具做大大的加速
Oscar avatar
By Oscar
at 2018-07-26T11:05
啊,不是說RL 跟SL 不同?我怎麼看到
The second stage of the training pipeline aims at
improving the policy network by policy gradient
reinforcement learning (RL)
Eden avatar
By Eden
at 2018-07-29T23:00
往下還有一小段. and 12% against a slightly weaker
program Fuego
Caitlin avatar
By Caitlin
at 2018-08-03T10:31
前面還有一段The RL policy network p ρ
is identical in structure to the SL
Brianna avatar
By Brianna
at 2018-08-07T02:43
and its weights ρ are initialised to the same
values.
Rebecca avatar
By Rebecca
at 2018-08-07T07:24
秀下限又開始了,論文看不懂先承認再求人教你
Ida avatar
By Ida
at 2018-08-08T08:10
@aaaba, 快來教我吧.
你的參數都在哪, 快拿出來.
Lucy avatar
By Lucy
at 2018-08-10T06:30
不同啊,因為兩個方法看待資料的角度是不同。
Lucy avatar
By Lucy
at 2018-08-10T21:51
以這為例,RL的資料是自己產生資料,SL是觀察的資料一
個是觀察的資料,一個是自我產生的資料
Tom avatar
By Tom
at 2018-08-12T16:10
SL的S在強調的是資料有提供答案,而RL則是要具備能產生
資料的環境
Puput avatar
By Puput
at 2018-08-14T09:31
繼續轉, 英文就在哪了. 謝謝.
Ivy avatar
By Ivy
at 2018-08-18T19:05
以上是ML的一般知識,你想反駁請找定義
Tristan Cohan avatar
By Tristan Cohan
at 2018-08-23T01:57
不用拿一個應用的paper中的一句話來戰
Lily avatar
By Lily
at 2018-08-27T12:34
你那句話只代表這個問題剛好SL和RL都能解
Olga avatar
By Olga
at 2018-08-31T06:29
英文就在哪了. 謝謝.
John avatar
By John
at 2018-09-04T23:59
你不信就算了,其他網友別被誤導就好
Christine avatar
By Christine
at 2018-09-09T00:45
我正在學當中, 不置可信, 我只學過pattern recognition
Carol avatar
By Carol
at 2018-09-09T11:32
ML這種高級貨, 我是不會懂的.
致於誰在誤導別人, 就看誰整天叫人去看論文. 結果自己
沒看的吧.
Odelette avatar
By Odelette
at 2018-09-12T13:08
怎麼都不發文?
Annie avatar
By Annie
at 2018-09-15T14:20
這是圍棋版, 不是AI 版.
但你可以請他教你alphago的論文.
Margaret avatar
By Margaret
at 2018-09-19T20:37
原來你是論文看不懂啊...也對啦!訓練方法和網路架
構分不清楚,怎麼會懂
Quanna avatar
By Quanna
at 2018-09-21T03:45
說出RL=SL這種話,我也只能笑了
Audriana avatar
By Audriana
at 2018-09-22T06:13
Wush,那句話並不是說SL和RL都能解喔...
Gary avatar
By Gary
at 2018-09-27T06:00
@semihumanity, 我是真的看不懂的, 英文就在哪, 等你
Dora avatar
By Dora
at 2018-09-30T15:56
來解釋嘛.
不過, 你最好先實現一個alphago 出來, 比較有說服力.
Rae avatar
By Rae
at 2018-09-30T22:42
我前面說過了,我為什麼要免費教你?
Bethany avatar
By Bethany
at 2018-10-04T18:50
你以為知識是免費的?
我雖然沒做過AlphaGO,但也自己寫過RBM,CRBM,CNN
Dinah avatar
By Dinah
at 2018-10-08T15:39
哦, 哪就算囉. 你這麼懂alphago.
Hedwig avatar
By Hedwig
at 2018-10-10T10:03
期待你的alphago 復刻版.
加油1.
Rachel avatar
By Rachel
at 2018-10-11T02:14
我是沒Wush那麼好心,怕別人被誤導。想學的人再問我
Erin avatar
By Erin
at 2018-10-15T06:57
真的,連論文都沒看的, 就會笑. 真的是不錯.
Irma avatar
By Irma
at 2018-10-16T16:29
The RL policy network p is identical in structure to the
SL and its weights p are initialized to the same values.
Daniel avatar
By Daniel
at 2018-10-19T01:08
中譯: RL 的走子網路的 (類神經網路) 結構和 SL 用的結構相
Irma avatar
By Irma
at 2018-10-21T03:11
同。RL 訓練的網路起始參數初始化為 SL 訓練結果的參數。
Sierra Rose avatar
By Sierra Rose
at 2018-10-23T20:53
RL 和 SL 是不同的訓練方式。AlphaGo 的目標之一是用 CNN 做
Caitlin avatar
By Caitlin
at 2018-10-25T23:54
為走棋的 model, 而 deep CNN 有兩個重要的變因:神經元的連
Oscar avatar
By Oscar
at 2018-10-26T12:30
結方式和每個連結的權重 (weights)。
這句話的意思是在連結方式上,SL 和 RL 這兩個階段訓練用的
William avatar
By William
at 2018-10-29T16:28
是相同的結構。而權重的部份,SL 和 RL 都需要一組初始值。
Catherine avatar
By Catherine
at 2018-10-30T04:35
不同的初始值會影響 model 收斂的速度。最簡單的方式是亂數
Mason avatar
By Mason
at 2018-11-01T00:42
,但 AlphaGo 用 SL 訓練好的權重當作 RL 的初始值,可以加
Joe avatar
By Joe
at 2018-11-02T00:30
快收斂,也可能讓結果更好。另外 AlphaGo 的 SL 訓練方式是
用 KGS 還是哪個 server (忘了) 的高端棋譜,而不是真的有一
Isabella avatar
By Isabella
at 2018-11-04T02:01
個人在旁邊修正。SL 用的都是之前的技術,雖然無法打敗一流
棋手但也算是一個有一定程度的 model, 用來當作 RL 的初始
Delia avatar
By Delia
at 2018-11-07T23:01
的 model 可以想成省去用 RL 從初心者開始訓練的漫長過程。
Franklin avatar
By Franklin
at 2018-11-10T00:36
DeepMind 之前也有說他們想嘗試拿掉 SL 純以 RL 來訓練。
Rebecca avatar
By Rebecca
at 2018-11-14T11:17
AlphaGo 的核心價值就是 DNN + RL。這兩者的 "概念" 都是以
前就有,但把兩者結合起來並發展出一套適合用在圍棋上的
Hardy avatar
By Hardy
at 2018-11-15T16:06
model 是相當有難度的,也是 AlphaGo 創新的地方。
Adele avatar
By Adele
at 2018-11-20T08:26
@semihumanity 我只是指出,要拿該句話論證RL=SL的問題點
Annie avatar
By Annie
at 2018-11-21T21:33
感謝@aoeu大大仔細解析那句話的意思以及SL/RL在Paper中的
角色。
Jacob avatar
By Jacob
at 2018-11-24T19:40
L大一開始說得也沒錯 圍棋AI不像computer vision的問題
例如釋出FASTER R-CNN的MODEL大家可以很
Victoria avatar
By Victoria
at 2018-11-27T01:49
輕鬆的基於這個模型去對影像偵測達到很不錯的表現
Zora avatar
By Zora
at 2018-11-27T11:16
阿法狗的RL太多眉眉角角在裡面 能訓練出一樣水平的模型
Ethan avatar
By Ethan
at 2018-11-29T07:33
不是那麼容易的 我也覺得起跑線那句話有點不妥
Annie avatar
By Annie
at 2018-12-03T16:21
但後來跟別人戰論文就有點不知所云......
Emily avatar
By Emily
at 2018-12-04T04:50
我是覺得不離譜。這不代表重現paper簡單,但是當別人把
Jacob avatar
By Jacob
at 2018-12-05T14:51
做法的核心都放出來後,要達到接近的高度,已經比無中生
Olive avatar
By Olive
at 2018-12-08T04:17
有還要容易的多了。畢竟已經有前人走在前面,並且達到高
度。像我自己在做研究時,多的是方法難做,也不清楚做出
來是不是真的能夠比現有的好... 痛苦阿
Jessica avatar
By Jessica
at 2018-12-08T13:45
不知道以後alphago會不會opensourceXD
Olga avatar
By Olga
at 2018-12-11T01:51
wush大真的有說到相關研究人員的難處,調整模型的時候,哪
怕是多知道一個參數的起始值該怎麼設,就足夠省下N倍的時間
。當然一般研究生是無法靠論文重現alphaGo的,我原始推文是
在說騰訊為何不需要劉知青,所以所謂起跑線,是對騰訊這種
公司而言,請勿放大解釋,以為有論文就有alphaGo。扭曲他人
言論這種不入流的事,在我多次澄清後,希望別再發生
Ingrid avatar
By Ingrid
at 2018-12-13T11:04
推大神們出來說明
Franklin avatar
By Franklin
at 2018-12-17T02:58
aoeu太佛心了吧…看不懂的人自以為懂就好了啊
Sandy avatar
By Sandy
at 2018-12-21T08:45
@semihumanity,連棋AI 都沒做過的, 的確是看懂就好.
Catherine avatar
By Catherine
at 2018-12-25T10:37
我真的覺得不需要糾纏下去,當RL=SL時你還能說什麼呢
Odelette avatar
By Odelette
at 2018-12-26T18:36
而SL train出來的東西, 並沒有保證準確,最終還是要有
Suhail Hany avatar
By Suhail Hany
at 2018-12-27T03:36
人來檢視, 訂正. 要是哪麼簡單, GNU GO 上的盤就夠多的
了, GNU Go 借fuego 的論文train 一下不就好了.
Gilbert avatar
By Gilbert
at 2018-12-29T02:22
看到Lord大的文我也是醉了 居然會講到需要人來訂正 檢視
Audriana avatar
By Audriana
at 2019-01-03T00:50
他大概不知道DeepMind如何修正AlphaGO第四局的問題
Damian avatar
By Damian
at 2019-01-06T12:02
就我所知,Fuego不是用MCTS嗎?有用deep learning?
Delia avatar
By Delia
at 2019-01-07T10:13
還是他說的SL不是DL裡的SL?XD
Lydia avatar
By Lydia
at 2019-01-08T09:38
原來需要人檢視啊,這就是supervise 啊! 難怪我不懂
Faithe avatar
By Faithe
at 2019-01-09T15:18
以後遇到人一定得問上一句:你知道supervise嗎?
Eartha avatar
By Eartha
at 2019-01-11T10:09
來朝聖sl=rl LOL
Doris avatar
By Doris
at 2019-01-15T16:02
這裡有一批便宜的稻草人 請打這支電話 ****-***-***
Damian avatar
By Damian
at 2019-01-17T22:43
@semihumanity,你不知的東西,真的很多. 但你很會笑.
Vanessa avatar
By Vanessa
at 2019-01-22T16:29
@ztdxqa,不需要人來檢視,aja的程式必然早就最強了.
還整天在搞哪些pattern幹嘛
Faithe avatar
By Faithe
at 2019-01-23T09:24
@aaaba,你扭曲aja講的話這種事, 還在推文中.
Puput avatar
By Puput
at 2019-01-26T03:59
@semihumanity, https://arxiv.org/abs/1412.3409
好笑嗎?
Ula avatar
By Ula
at 2019-01-29T22:35
相關的討論在computer-go.org 上都有討論.
Hamiltion avatar
By Hamiltion
at 2019-02-03T17:37
最後結果人去檢視跟SL的Supervised是兩回事……XD
Annie avatar
By Annie
at 2019-02-06T22:45
啊, 有人說是同一回事?
Una avatar
By Una
at 2019-02-09T01:32
但如果有人認為,照論文就可以產生一個一樣強的程式.
就真的是想太多了.
Anthony avatar
By Anthony
at 2019-02-12T17:37
為什麼要一直逗我笑XD那篇論文有說Fuego有用deep
learning嗎?你找錯論文了,Fuego的論文不是這篇喔
Brianna avatar
By Brianna
at 2019-02-13T15:49
真的是第一次看到臉皮這麼厚的人,一直伸出來要人打
Kelly avatar
By Kelly
at 2019-02-16T21:21
@semihumanity, 你又打算不自文就出來笑了?
上回還笑不夠?
Freda avatar
By Freda
at 2019-02-18T12:55
我猜你是要說「不讀論文」,但目前為止都是你看不懂
Yuri avatar
By Yuri
at 2019-02-19T23:38
論文啊!
Franklin avatar
By Franklin
at 2019-02-24T01:55
「同樣是CNN的狀況, ALPHAGO就大輸fuego」XDD
你到現在還不知道你這句話哪些地方錯了?
Odelette avatar
By Odelette
at 2019-02-26T22:28
你有看懂你找的那篇論文嗎?
Una avatar
By Una
at 2019-03-03T14:52
樓上太佛了,一直指導他,可是他比較需要的是開導
Hazel avatar
By Hazel
at 2019-03-07T17:56
推 forb9823018 aoeu mom213 其他人的語言能力跟情商
都很值得加強啊......

沒人在關心農心盃?

Hedy avatar
By Hedy
at 2016-11-25T21:32
http://www.nihonkiin.or.jp/match/noshin/018.html 范廷鈺四連勝,韓國只剩下兩位棋手。 明天日本要派誰呢? -- 是啊.....我只是個人魚..... 無法跟王子結合,我...我的命運就是化成泡影而死去。 辛蒂公主是個好女孩,祝你們永遠幸福! 還有一件事就是. ...

趙治勳:我感受到人工智慧也有人性的一面

Oliver avatar
By Oliver
at 2016-11-24T18:35
趙治勳:我感受到人工智慧也有人性的一面  新浪體育訊  “一開始我覺得是跟機器下。但是下了幾盤,我感受到人工智慧也有人 性的一面。原以為我絕對不會輸,但是下著下著就醒悟到自己想錯了。在想像的領域,特 別是佈局,我輸掉了。我原來是無條件認為,人比機器強,看來是我想錯了。”   趙治勳九段下贏日本版“Alph ...

ZEN無法與阿爾法相比 柯潔最適合代表人

Una avatar
By Una
at 2016-11-24T13:54
ZEN無法與阿爾法相比 柯潔最適合代表人類出戰  一挖、一斷——白棋大龍被斷開,即使能夠做活,也將面臨搜刮的痛苦……日本的圍棋 AI——DEEPZEN爽快認輸,就這樣,它的對手、亂髮當空的老小孩趙治勳九段笑了,就這 樣,號稱“人機大戰第二季”的第2期日本圍棋電王戰三番棋在日本東京落下帷幕,最終 是60歲的不 ...

趙治勳:ZEN很乖不會放勝負手

Eden avatar
By Eden
at 2016-11-23T17:31
趙治勳:ZEN很乖不會放勝負手 很感動它超常想像力 新浪體育訊  趙治勳九段在人機大戰第2期日本電王戰執黑中盤擊敗DeepZenGo,三番棋 2比1勝出。賽後趙治勳坦言感動於ZEN超常想像力,而且對手很乖不會放勝負手。   首局趙治勳官子制勝,次局ZEN屠龍扳平,雙方迎來決勝局。本局裁判長小林覺九段 ,記 ...

圍棋電王戰第三局 趙治勳 VS DeepZenGo

Olive avatar
By Olive
at 2016-11-23T12:02
http://i.imgur.com/Gnik14L.jpg 借aaaba兄的格式改一下.. 趙治勳名譽名人(黑) vs DeepZenGo(白) 【此頭銜2016年開始使用】 第1局 2016年11月19日 第2局 2016年11月20日 第3局 2016年11月23日 黑貼六目半 ...