人機大戰觀後雜感 - 圍棋

Table of Contents

: → devidevi: AI選擇投子之後,已經認為沒有贏的希望.... 05/27 23:18
: 推 HeterCompute: 說句實話,AlphaGo想要投子的時候古力是真的完全沒 05/27 23:19
: → devidevi: 對AI而言怎麼下都是輸,這樣不算是BUG吧 05/27 23:19
: → HeterCompute: 機會了,古力只是想要整理一下心情,畢竟從大優變成 05/27 23:19
: → HeterCompute: 輸棋,那時差距已經二十目了,不可能逆轉的 05/27 23:20

不是有意抬摃,但這裏是有盲點的。

這局棋就是個很明顯的例子。在人機配對賽裏,人就是最大的變數。暫且不論時力
故意自緊一氣自填一眼的極端例子,以人加機器這樣的組合,只要是人,就有可能
出錯,或是下出緩著。

今天配對的是兩位高手,所以這樣的情況並不明顯,換成兩位業餘棋手上去,可以
預期出現意外翻轉的可能性更高。


這在現實應用上的意義更深遠。以自動駕駛為例,AI在判定時也許總是可以做出
最佳決策,但總是有突然衝出的老人,油門當煞車踩的新手,硬闖紅燈的死小孩。
在類似這種情況下,防禦性的應對,柔軟性的妥協忍耐,都是極為重要的。

AI在逆境劣勢裏的反應,是一個很重要的課題。應該沒有人願意看到,輸給李世
石的AI發神經的樣子。因為這和AI「求勝」的原始指令是有所衝突的。


只是這討論下去沒完沒了。這種事,還是留給黃博士這種專業人士傷腦筋吧。XD

--

All Comments

Daniel avatarDaniel2017-05-29
我一直很想噓自動駕駛的例子,圍棋是輸贏,自動駕駛
考慮安全,目標不一樣混為一談就是錯的,而且我完全
Lucy avatarLucy2017-06-02
不同意換成兩位業餘棋手上去意外翻轉更高所以要繼續
Todd Johnson avatarTodd Johnson2017-06-02
那你到底希望怎麼樣的翻盤形式,請具體說出來,不要
說穩穩收然後對方會自己緊氣到只剩一氣給你吃這種
Hardy avatarHardy2017-06-06
AI最大的障礙不是輸贏,而是哲學...效益與道德的衝突...
Ethan avatarEthan2017-06-08
訓練時沒加入人類干擾而已…
目標不同
要重新訓練
Zora avatarZora2017-06-12
阿斯拉vs皇呀
Ingrid avatarIngrid2017-06-14
我覺得很好笑的的一點就是對AI苛求完美,對人類缺點理所當然
Leila avatarLeila2017-06-15
人類遇到意外狀況就不會出包? 機器出包率有人類高嗎?
Charlie avatarCharlie2017-06-16
一樓ID取異質計算想必也是此道中人 但是可以查查自駕
肇事率 你就會發現人類肇事率海放
Hamiltion avatarHamiltion2017-06-17
純效益主義考量 至少在駕車 也應該全面取代人類
Joe avatarJoe2017-06-18
因為心理上接受不了,所以會拒絕認同和理解。這是正常
人類的行為模式
James avatarJames2017-06-22
駕車事故有九成是人為所致
Elvira avatarElvira2017-06-24
路人的比喻不對 要對比也是突然想自行操控的駕駛
Ingrid avatarIngrid2017-06-27
AI可以學習如何閃避亂入的路人 但沒辦法接受失去控制權
Quanna avatarQuanna2017-06-28
自動駕駛可能還是無法解決道德問題
Charlie avatarCharlie2017-07-01
左打方向盤撞死老人,直走撞死小孩,右彎撞電線桿自亡
Vanessa avatarVanessa2017-07-04
ai如何判斷,難道要自我毀滅XD
Sandy avatarSandy2017-07-08
這是很典型的哲學問題,人類卡在這關已經很久了~
Harry avatarHarry2017-07-09
你說的沒錯,我也跟你有一樣的觀點
Audriana avatarAudriana2017-07-10
我認同自動駕駛的價值,只是兩種不同目標的AI類比
不倫不類
Odelette avatarOdelette2017-07-13
to q大:人類在面臨一樣困境時就沒有道德問題嗎?
Sandy avatarSandy2017-07-14
那種極端情況讓人去駕駛也沒法處理更好吧...有種角度是
去計算活命機率 就像機器公敵裡面那樣
Charlie avatarCharlie2017-07-18
h大: alphago標誌的是一種汎用性 延伸出去的話題涉及
自駕 應該不至於太滑坡 何況本篇就在討論與AI合作
Genevieve avatarGenevieve2017-07-23
盡可能讓傷害最小化 這點AI應該還是辦的到的
Dorothy avatarDorothy2017-07-25
q大的例子 大概就選自撞吧 鐵包肉活命機會比較大(?
Aaliyah avatarAaliyah2017-07-29
而且AI應該不至於會滑坡到那樣極端的情況
Margaret avatarMargaret2017-07-30
人也是會遇到這個問題 有人可以負責 AI出事誰負責?
Caroline avatarCaroline2017-07-30
責任歸屬問題只要契約定好就沒問題了 一定有人負責
Tom avatarTom2017-08-03
AI出事就賣AI裝置的廠商負責吧,但他應付的責任不高於
同樣場合下人類應付的責任
Donna avatarDonna2017-08-03
契約沒定好又會自己動的東西有人敢買嗎?
現在飛機只有少部份人為操控 空難誰負責 自駕撞人就誰
Andy avatarAndy2017-08-06
按現行常識 大概也是保險公司和製造公司一定比例分配
不過歸咎責任至少是個好方向 不像卡在道德問題出不來
Andy avatarAndy2017-08-09
現行法律的責任歸屬,到底有沒有符合公平,都很難下這個
定論,加上AI的攪局,勢必更為混亂。不過AI應用勢在必行
,我是蠻樂觀其成AI在沒觸及道德層面中的貢獻,但如果跨
入道德層面,個人覺得人類距離滅亡感覺也不遠了
Anonymous avatarAnonymous2017-08-11
Ai會避開任何危險,人類想的到的風險它都能避開
Audriana avatarAudriana2017-08-14
說自撞不會死的是有事嗎
Anthony avatarAnthony2017-08-16
MIT在開發道德模擬器,討論自駕車該選擇撞死什麼人
Zanna avatarZanna2017-08-16
例如在前方有小孩,閃避卻會撞到路旁老人的情況。
Mary avatarMary2017-08-17
一定會撞到人時,AI該選擇撞哪一邊
Skylar DavisLinda avatarSkylar DavisLinda2017-08-21
這不是一個AI問題,而是人類要做的選擇題
Kyle avatarKyle2017-08-23
你選好之後,讓AI學習你想要的行為即可
Elma avatarElma2017-08-25
樓上完全懂得我要說的話,也許有人會說就讓ai自己決定
但如果人類沒辦法有自己的意識,勢必最後會走向滅亡
Michael avatarMichael2017-08-26
我什麼時候說自撞不會死了= =
Kumar avatarKumar2017-08-30
這幾天,AI就告訴你他的決策比人好