Re: [好文推薦] 這兩盤棋 沒人會比李世石做得好消失

看板GO (圍棋)作者時間9年前 (2016/03/12 00:39), 編輯推噓15(150154)
留言169則, 8人參與, 最新討論串5/8 (看更多)
※ 引述《reinhert (史丹佛的銀色子彈)》之銘言: : 所以常常看到有人說找Bug和對原始碼下手,但其實這是不對的 : 這個計算系統是隨時隨地在變動的 : 如果有一般人所謂的Bug(系統實作上的問題)也早就找出來了 : 要也是要對Model和系統本身的弱點來下手,但NN會在不斷的訓練逐漸趨近最佳解 : 所以要"騙"或找Bug是非常困難的甚至沒意義的 其實找bug這件事也不是這麼絕望 NN的穩定性目前在ML領域還是一直受到挑戰 例如: http://www.zdnet.com/article/hacking-neural-networks/ 作者就是在研究針對一個NN訓練出來的分類器 如何加入一點點雜訊就可以造成預測結果改變 不過這種作法相當於用演算法破解演算法 要靠人的智識透過觀察與歸納找出ML技術訓練出來的模型的的漏洞 可行性幾乎是零 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 114.43.207.184 ※ 文章網址: https://www.ptt.cc/bbs/GO/M.1457714356.A.461.html

03/12 00:42, , 1F
姑且不論狗不是純nn的機制,你要怎麼注入雜訊
03/12 00:42, 1F

03/12 00:45, , 2F
分類問題分錯就錯掉了,回歸問題錯得不離譜的情況,mcts 會
03/12 00:45, 2F

03/12 00:45, , 3F
順利運作
03/12 00:45, 3F

03/12 00:45, , 4F
加入什麼樣的雜訊能讓模型預測失效也是靠演算法算出來
03/12 00:45, 4F

03/12 00:46, , 5F
人類能做的事是從這些雜訊反推此模型對什麼樣的輸入
03/12 00:46, 5F

03/12 00:46, , 6F
比較敏感 容易預測錯誤
03/12 00:46, 6F

03/12 00:46, , 7F
ML系統不是本來就該能容忍輸入資料的一些雜訊才算實用嗎?
03/12 00:46, 7F

03/12 00:48, , 8F
對 但這個研究的方向就是要證明ML還有改善空間
03/12 00:48, 8F

03/12 00:48, , 9F
圖片的像素可以任意微調,盤面是要怎麼動手腳?
03/12 00:48, 9F

03/12 00:50, , 10F
在某棋面下出某一步造成系統預測失準 把這種方式當作加
03/12 00:50, 10F

03/12 00:50, , 11F
雜訊
03/12 00:50, 11F

03/12 00:51, , 12F
你丟入低棋的棋譜、雖然是高棋但下爛的棋譜,這就是一種雜
03/12 00:51, 12F

03/12 00:51, , 13F
03/12 00:51, 13F

03/12 00:52, , 14F
如果能證實,放1000好的高棋譜跟1000高棋+500爛譜都能學成
03/12 00:52, 14F

03/12 00:53, , 15F
相差不大的實力,則我們就可以說這個架構有一定抗雜訊的能
03/12 00:53, 15F

03/12 00:54, , 16F
力了,反之要是加入爛譜會讓實力驟降,那就是非常不抗雜訊
03/12 00:54, 16F

03/12 00:54, , 17F
樓上先弄清這裡在講testing phase
03/12 00:54, 17F

03/12 00:55, , 18F
喔,我沒針對那篇的內容在講啊
03/12 00:55, 18F

03/12 00:56, , 19F
你如果一定要限定在Testing的話,以圍棋這個例子我還真沒
03/12 00:56, 19F

03/12 00:56, , 20F
法立刻想到特別好的方法,因為盤面動一子已經視同完全不同
03/12 00:56, 20F

03/12 00:57, , 21F
的盤面了,跟一般常見以特徵條列的Input特性不太一樣
03/12 00:57, 21F

03/12 01:00, , 22F
不過其實我覺得談到雜訊的時候training處理比較重要
03/12 01:00, 22F

03/12 01:02, , 23F
因為只要training沒因為雜訊造成overfitting,就相對不怕
03/12 01:02, 23F

03/12 01:03, , 24F
testing用的資料也有雜訊
03/12 01:03, 24F

03/12 01:03, , 25F
丟棋譜其實沒甚麼用 因為它主要是靠自我學習成長
03/12 01:03, 25F

03/12 01:03, , 26F
棋譜比較像是initialization 亂數起始比較沒效率
03/12 01:03, 26F

03/12 01:04, , 27F
不,棋譜是學習開始使用的seed,絕不是不重要的東西
03/12 01:04, 27F

03/12 01:05, , 28F
他會自我校正阿 除非初始化真的太差 不然不會差太多
03/12 01:05, 28F

03/12 01:06, , 29F
可是圖片分類器在training時雜訊加得可多了,還是有盲點。
03/12 01:06, 29F

03/12 01:06, , 30F
有隨機的成分在 時間拉長還是會往好的方向去收斂
03/12 01:06, 30F

03/12 01:07, , 31F
還是不完全正確,不佳的initialization除了效率可能不佳外
03/12 01:07, 31F

03/12 01:07, , 32F
,有可能更容易導向較差的local maximum
03/12 01:07, 32F

03/12 01:08, , 33F
所以沒事就找些真人來打打 讓他不要過早收斂
03/12 01:08, 33F

03/12 01:09, , 34F
自我對戰可能比較容易陷入local optimum
03/12 01:09, 34F

03/12 01:09, , 35F
這跟餵新的好譜是同樣的概念呀
03/12 01:09, 35F

03/12 01:09, , 36F
但這邊有個問題就是 如果他的local opt已經比人強了
03/12 01:09, 36F

03/12 01:09, , 37F
那好像就沒差了
03/12 01:09, 37F

03/12 01:10, , 38F
對於追求更好來說還是有差的啦,應用層面當然就會夠用即好
03/12 01:10, 38F

03/12 01:18, , 39F
反正就是圍棋的輸入很乾淨,沒也所謂雜訊干擾的問題。train
03/12 01:18, 39F
還有 90 則推文
03/12 02:08, , 130F
應該說 人類下的那堆棋到底AI適不適用就是個問題
03/12 02:08, 130F

03/12 02:08, , 131F
對岸看到的一篇文章:https://goo.gl/JX1YHd
03/12 02:08, 131F

03/12 02:09, , 132F
說不定反而害他綁手綁腳
03/12 02:09, 132F

03/12 02:09, , 133F
不明覺厲 請高手解釋orz
03/12 02:09, 133F

03/12 02:09, , 134F
眼會讓人誤以為過去棋理崩潰,但其實並不到過去全錯的地步
03/12 02:09, 134F

03/12 02:10, , 135F
這樣說吧 如果亂數起始然後還是跑出類人的棋理
03/12 02:10, 135F

03/12 02:10, , 136F
那就驗中那些棋理是對的 沒跑出來搞不好就是錯的
03/12 02:10, 136F

03/12 02:10, , 137F
懂嗎? 你要研究價值這就一點
03/12 02:10, 137F

03/12 02:10, , 138F
亂數起始就回到我前面講的東西啦,如果你餵一堆高手譜跟餵
03/12 02:10, 138F

03/12 02:11, , 139F
亂下譜最後能train出一樣好的model,就證明了此model不依
03/12 02:11, 139F

03/12 02:11, , 140F
賴seed,因此當然就不用擔心這回事啦
03/12 02:11, 140F

03/12 02:12, , 141F
這就是我前面說,改變training set可以進行的其中一種研究
03/12 02:12, 141F

03/12 02:13, , 142F
@jimmy20642 本版應該已經有好幾篇文在解釋,恕我沒法在這
03/12 02:13, 142F

03/12 02:13, , 143F
邊再一次重覆了XD 一個不注意都過半夜兩點了啦!XDDD
03/12 02:13, 143F

03/12 02:14, , 144F
我要先撤退了,感謝幾位的討論XD
03/12 02:14, 144F

03/12 02:15, , 145F
亂數seed能成立的機率請參考地球生命的起源
03/12 02:15, 145F

03/12 02:16, , 146F
不一定啦,要看問題特性跟model,特別是類神經網路這一種
03/12 02:16, 146F

03/12 02:17, , 147F
model在真的讓它試看看之前我實在無法說seed的好壞到底差
03/12 02:17, 147F

03/12 02:17, , 148F
多少XD
03/12 02:17, 148F

03/12 02:19, , 149F
它的幾個網路並不是用來下棋啊 而是輔助mcts
03/12 02:19, 149F

03/12 02:20, , 150F
他講的亂數那種方法只有過時的ga才有,類神經的label用亂數
03/12 02:20, 150F

03/12 02:20, , 151F
是怎麼學?
03/12 02:20, 151F

03/12 02:25, , 152F
http://goo.gl/qnoGZI 這邊有人問
03/12 02:25, 152F

03/12 02:26, , 153F
上面基本上觀點跟我理解的一樣
03/12 02:26, 153F

03/12 07:03, , 154F
這東西簡直就是變魔術 原理說破不難理解 但實現的過程極其
03/12 07:03, 154F

03/12 07:04, , 155F
困難有很多問題也一堆人不相信 結果真的跟魔術一樣 讓人張
03/12 07:04, 155F

03/12 07:04, , 156F
大嘴巴...
03/12 07:04, 156F

03/12 08:04, , 157F
人這麼武斷很難做研究
03/12 08:04, 157F

03/12 10:44, , 158F
@blackwindy:你說的是weight在還沒training前如何init?那
03/12 10:44, 158F

03/12 10:44, , 159F
目前慣例是用亂數沒錯,只是這樣一來,你前面的論述我就不
03/12 10:44, 159F

03/12 10:44, , 160F
懂了,ddaivid在討論要用什麼樣的dataset來研究其他議題時
03/12 10:44, 160F

03/12 10:44, , 161F
,你在講初始化,根本是不同的事情,我就誤會了,現在我的
03/12 10:44, 161F

03/12 10:44, , 162F
理解是不管ddavid要用好譜還壞譜,他都能用亂數weight開始
03/12 10:44, 162F

03/12 10:44, , 163F
訓練網路,你們所謂init可能存在歧義。
03/12 10:44, 163F

03/12 10:54, , 164F
你在25樓說“丟棋譜沒用,現在是靠亂數起始”,這句話意味
03/12 10:54, 164F

03/12 10:54, , 165F
不明,你的label不是用棋譜產生嗎?棋譜怎麼會沒有用呢?
03/12 10:54, 165F

03/12 11:01, , 166F
不用棋譜你來做出一個1d的AI? 願聞其詳。
03/12 11:01, 166F

03/12 12:30, , 167F
學理是輸入棋譜大量訓練後會趨於穩定, 初值亂數會比較快
03/12 12:30, 167F

03/12 12:55, , 168F
初值亂數沒問題,我質疑的初值亂數根本無法取代譜的好壞
03/12 12:55, 168F

03/12 12:55, , 169F
扯在一起討論難免產生誤會
03/12 12:55, 169F
文章代碼(AID): #1MulIqHX (GO)
討論串 (同標題文章)
文章代碼(AID): #1MulIqHX (GO)