Re: [閒聊] 人機大戰觀後雜感

看板GO (圍棋)作者 (hdjj)時間8年前 (2017/05/28 12:34), 編輯推噓12(14242)
留言58則, 15人參與, 最新討論串3/8 (看更多)
: → devidevi: AI選擇投子之後,已經認為沒有贏的希望.... 05/27 23:18 : 推 HeterCompute: 說句實話,AlphaGo想要投子的時候古力是真的完全沒 05/27 23:19 : → devidevi: 對AI而言怎麼下都是輸,這樣不算是BUG吧 05/27 23:19 : → HeterCompute: 機會了,古力只是想要整理一下心情,畢竟從大優變成 05/27 23:19 : → HeterCompute: 輸棋,那時差距已經二十目了,不可能逆轉的 05/27 23:20 不是有意抬摃,但這裏是有盲點的。 這局棋就是個很明顯的例子。在人機配對賽裏,人就是最大的變數。暫且不論時力 故意自緊一氣自填一眼的極端例子,以人加機器這樣的組合,只要是人,就有可能 出錯,或是下出緩著。 今天配對的是兩位高手,所以這樣的情況並不明顯,換成兩位業餘棋手上去,可以 預期出現意外翻轉的可能性更高。 這在現實應用上的意義更深遠。以自動駕駛為例,AI在判定時也許總是可以做出 最佳決策,但總是有突然衝出的老人,油門當煞車踩的新手,硬闖紅燈的死小孩。 在類似這種情況下,防禦性的應對,柔軟性的妥協忍耐,都是極為重要的。 AI在逆境劣勢裏的反應,是一個很重要的課題。應該沒有人願意看到,輸給李世 石的AI發神經的樣子。因為這和AI「求勝」的原始指令是有所衝突的。 只是這討論下去沒完沒了。這種事,還是留給黃博士這種專業人士傷腦筋吧。XD -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 36.232.200.239 ※ 文章網址: https://www.ptt.cc/bbs/GO/M.1495946078.A.C21.html

05/28 12:44, , 1F
我一直很想噓自動駕駛的例子,圍棋是輸贏,自動駕駛
05/28 12:44, 1F

05/28 12:44, , 2F
考慮安全,目標不一樣混為一談就是錯的,而且我完全
05/28 12:44, 2F

05/28 12:47, , 3F
不同意換成兩位業餘棋手上去意外翻轉更高所以要繼續
05/28 12:47, 3F

05/28 12:48, , 4F
那你到底希望怎麼樣的翻盤形式,請具體說出來,不要
05/28 12:48, 4F

05/28 12:48, , 5F
說穩穩收然後對方會自己緊氣到只剩一氣給你吃這種
05/28 12:48, 5F

05/28 12:51, , 6F
AI最大的障礙不是輸贏,而是哲學...效益與道德的衝突...
05/28 12:51, 6F

05/28 12:56, , 7F
訓練時沒加入人類干擾而已…
05/28 12:56, 7F

05/28 12:56, , 8F
目標不同
05/28 12:56, 8F

05/28 12:56, , 9F
要重新訓練
05/28 12:56, 9F

05/28 13:11, , 10F
阿斯拉vs皇呀
05/28 13:11, 10F

05/28 13:18, , 11F
我覺得很好笑的的一點就是對AI苛求完美,對人類缺點理所當然
05/28 13:18, 11F

05/28 13:20, , 12F
人類遇到意外狀況就不會出包? 機器出包率有人類高嗎?
05/28 13:20, 12F

05/28 13:47, , 13F
一樓ID取異質計算想必也是此道中人 但是可以查查自駕
05/28 13:47, 13F

05/28 13:47, , 14F
肇事率 你就會發現人類肇事率海放
05/28 13:47, 14F

05/28 13:48, , 15F
純效益主義考量 至少在駕車 也應該全面取代人類
05/28 13:48, 15F

05/28 13:48, , 16F
因為心理上接受不了,所以會拒絕認同和理解。這是正常
05/28 13:48, 16F

05/28 13:48, , 17F
人類的行為模式
05/28 13:48, 17F

05/28 13:49, , 18F
駕車事故有九成是人為所致
05/28 13:49, 18F

05/28 13:57, , 19F
路人的比喻不對 要對比也是突然想自行操控的駕駛
05/28 13:57, 19F

05/28 13:58, , 20F
AI可以學習如何閃避亂入的路人 但沒辦法接受失去控制權
05/28 13:58, 20F

05/28 14:19, , 21F
自動駕駛可能還是無法解決道德問題
05/28 14:19, 21F

05/28 14:20, , 22F
左打方向盤撞死老人,直走撞死小孩,右彎撞電線桿自亡
05/28 14:20, 22F

05/28 14:21, , 23F
ai如何判斷,難道要自我毀滅XD
05/28 14:21, 23F

05/28 14:22, , 24F
這是很典型的哲學問題,人類卡在這關已經很久了~
05/28 14:22, 24F

05/28 14:27, , 25F
你說的沒錯,我也跟你有一樣的觀點
05/28 14:27, 25F

05/28 14:29, , 26F
我認同自動駕駛的價值,只是兩種不同目標的AI類比
05/28 14:29, 26F

05/28 14:29, , 27F
不倫不類
05/28 14:29, 27F

05/28 14:32, , 28F
to q大:人類在面臨一樣困境時就沒有道德問題嗎?
05/28 14:32, 28F

05/28 14:33, , 29F
那種極端情況讓人去駕駛也沒法處理更好吧...有種角度是
05/28 14:33, 29F

05/28 14:33, , 30F
h大: alphago標誌的是一種汎用性 延伸出去的話題涉及
05/28 14:33, 30F

05/28 14:33, , 31F
去計算活命機率 就像機器公敵裡面那樣
05/28 14:33, 31F

05/28 14:33, , 32F
自駕 應該不至於太滑坡 何況本篇就在討論與AI合作
05/28 14:33, 32F

05/28 14:35, , 33F
盡可能讓傷害最小化 這點AI應該還是辦的到的
05/28 14:35, 33F

05/28 14:36, , 34F
q大的例子 大概就選自撞吧 鐵包肉活命機會比較大(?
05/28 14:36, 34F

05/28 14:37, , 35F
而且AI應該不至於會滑坡到那樣極端的情況
05/28 14:37, 35F

05/28 14:38, , 36F
人也是會遇到這個問題 有人可以負責 AI出事誰負責?
05/28 14:38, 36F

05/28 14:41, , 37F
責任歸屬問題只要契約定好就沒問題了 一定有人負責
05/28 14:41, 37F

05/28 14:42, , 38F
AI出事就賣AI裝置的廠商負責吧,但他應付的責任不高於
05/28 14:42, 38F

05/28 14:42, , 39F
契約沒定好又會自己動的東西有人敢買嗎?
05/28 14:42, 39F

05/28 14:42, , 40F
同樣場合下人類應付的責任
05/28 14:42, 40F

05/28 14:42, , 41F
現在飛機只有少部份人為操控 空難誰負責 自駕撞人就誰
05/28 14:42, 41F

05/28 14:43, , 42F
按現行常識 大概也是保險公司和製造公司一定比例分配
05/28 14:43, 42F

05/28 14:43, , 43F
不過歸咎責任至少是個好方向 不像卡在道德問題出不來
05/28 14:43, 43F

05/28 15:00, , 44F
現行法律的責任歸屬,到底有沒有符合公平,都很難下這個
05/28 15:00, 44F

05/28 15:00, , 45F
定論,加上AI的攪局,勢必更為混亂。不過AI應用勢在必行
05/28 15:00, 45F

05/28 15:00, , 46F
,我是蠻樂觀其成AI在沒觸及道德層面中的貢獻,但如果跨
05/28 15:00, 46F

05/28 15:00, , 47F
入道德層面,個人覺得人類距離滅亡感覺也不遠了
05/28 15:00, 47F

05/28 15:39, , 48F
Ai會避開任何危險,人類想的到的風險它都能避開
05/28 15:39, 48F

05/28 15:54, , 49F
說自撞不會死的是有事嗎
05/28 15:54, 49F

05/28 17:40, , 50F
MIT在開發道德模擬器,討論自駕車該選擇撞死什麼人
05/28 17:40, 50F

05/28 17:41, , 51F
例如在前方有小孩,閃避卻會撞到路旁老人的情況。
05/28 17:41, 51F

05/28 17:42, , 52F
一定會撞到人時,AI該選擇撞哪一邊
05/28 17:42, 52F

05/28 17:51, , 53F
這不是一個AI問題,而是人類要做的選擇題
05/28 17:51, 53F

05/28 17:52, , 54F
你選好之後,讓AI學習你想要的行為即可
05/28 17:52, 54F

05/28 18:03, , 55F
樓上完全懂得我要說的話,也許有人會說就讓ai自己決定
05/28 18:03, 55F

05/28 18:03, , 56F
但如果人類沒辦法有自己的意識,勢必最後會走向滅亡
05/28 18:03, 56F

05/28 18:20, , 57F
我什麼時候說自撞不會死了= =
05/28 18:20, 57F

05/28 21:10, , 58F
這幾天,AI就告訴你他的決策比人好
05/28 21:10, 58F
文章代碼(AID): #1PAbDUmX (GO)
討論串 (同標題文章)
文章代碼(AID): #1PAbDUmX (GO)