看板
[ GO ]
討論串[好文推薦] 這兩盤棋 沒人會比李世石做得好
共 8 篇文章
內容預覽:
有些觀念我覺得要釐清一下比較好. ML的訓練過程說穿了也只是一種數學問題. 要分析演算法還是得回到數學的本質. 既然Alphago的決策模式加入了隨機性. 再加上訓練NN的過程也不能保證得到global optimum. 換言之. 不管你在training階段餵多棒的data進去. testting
(還有2136個字)
內容預覽:
AlphaGO "勝率"計算大約是. 最原始概念. 假設現在盤面上AlphaGO有ABCDE五個地方值得下. 就對ABCDE這個五位置後續各往後 快速隨機亂下1000盤. 一直下到官子結束看最後贏幾盤. 假設結果. A位置 贏830盤 輸170盤. B位置 贏750盤 輸250盤. C位置 贏640
(還有392個字)
內容預覽:
看了這麼多討論﹐我覺得這篇文章的說法還是有一個誤區。. 即所謂的人類眼中的臭棋其實是勝率高的穩健下法這一立論根本。. 這一立論的根本在後續討論用到時混淆了勝率高和真的能獲勝的概念。. 換言之﹐AI選擇的勝率高實際是它認為這樣能獲勝。但這真的能獲勝嗎﹖. 且不論勝率是怎麼來的﹐既然是勝率就說明還是有導
(還有424個字)
內容預覽:
其實找bug這件事也不是這麼絕望. NN的穩定性目前在ML領域還是一直受到挑戰. 例如:. http://www.zdnet.com/article/hacking-neural-networks/. 作者就是在研究針對一個NN訓練出來的分類器. 如何加入一點點雜訊就可以造成預測結果改變. 不過這種
(還有12個字)
內容預覽:
其實看很多人對AlphaGo演算法的看法好像還在以前. 把作法寫死在程式裡跑Funciton的想法. 所以才會說找Bug和騙電腦之類的. 這就讓我想到昨天第二局騰訊那個轉播,較前面兩個解說來賓. (名字我就不曉得了,畢竟個人也沒啥圍棋經驗). 右邊那位來賓也是停留在改Code,修原始碼之類的舊式理解
(還有1029個字)