Re: [魯蛇] 從AI訓練思維來看遊戲平衡這件事

看板GameDesign (遊戲設計)作者 (AI魔法師公會長老)時間1年前 (2023/05/26 00:30), 1年前編輯推噓2(5334)
留言42則, 4人參與, 1年前最新討論串3/4 (看更多)
※ 引述《ddavid (謊言接線生)》之銘言: : 你先思考一下,MTG 或 RTS 做完他所謂的平衡後,遊戲有平衡了嗎? : 沒有,他們做到的平衡只到避免極少數套路屠殺為止,只要環境可以保有多種策 : 略就好,但所謂的「多種策略」事實上相對於整個遊戲的元素仍然是少數壟斷。 : 例如 MTG 的賽場上仍然是特定幾副套牌的壟斷,但只要沒有極端到只剩下一兩 : 種套牌可以存活、沒有極端到某張除了地牌以外的牌是所有套牌都得放的情況,WotC : 就不會再進一步動手封禁了。 : LoL 角色那麼多,做得到角色平衡嗎?沒有,他們的做法是輪流讓角色(特別是 : 好賣錢的新角色)出來透氣,實際上仍然有差距極大的強勢弱勢角色之分,但只要做 : 到賽場上不會只剩下唯一選擇就已經可以接受了。甚至有時還真的有超強的唯一選擇 : ,但他們還額外設置了 ban角制度來解決。 這個就是在說明目前人工平衡很爛 所以我才要討論用AI來嘗試平衡 : GTO 是不是奠基於決策展開計算的?AlphaGo 不用展開決策樹?不管是 GTO 或 : 是剝削策略都是奠基於決策展開計算出來的機率期望值,會把機率跟決策分開認為是 : 兩件事,很顯然我覺得你要對現代 AI 跟打德撲都重新了解一下。這根本就是相關的 : 事情。 GTO在打的是範圍 也就盲注翻牌轉牌河牌 算Nash均衡 決策樹不是GTO策略本身 那只是輔助人類看的視覺化工具 你決策樹展開是要展荷官手上還沒打開的那一疊牌嗎? GTO跟決策樹無關自己去了解 : 我已經說了沒人這麼做就是因為價值很低: 價值低跟好不好是兩回事 alphago出來之前也是一堆人說AI下棋沒價值 實際上就是AI出來之後屌虐人類策略 : 1. 可能遊戲根本不需要那麼平衡,甚至有的遊戲本來就是需要有一點動態的不平衡 : 變化來維持。 : 例如,LoL 的新英雄強勢期。 : 2. 你在做決策訓練的過程中,事實上大多數情況可以同時處理到平衡問題。 : 例如,圍棋 AI 從頭到尾都只是訓練最佳化下棋的策略,但藉由其結果,卻也同 : 時得到人類對局確實以黑貼六目半是當前最平衡的選擇(雖然白略優)。 : 因為以上兩個主要理由,幾乎足以涵蓋大多數案例,所以相對少有公司直接投資 : 在直接用 AI 做平衡上。當然學術上往這個方向做也沒什麼問題,但要做到分析平衡 : 能遠比用 2 順便處理到還成本低廉,然後該產品又非常需要這麼平衡的用例是真的 : 不多。 : 所以你要說我打模糊仗,那也可以,因為整個業界都在打這個模糊仗XD : 不過我是從根本上想質疑你所謂「找發散」這種概念啦,我很鼓勵你做個 toy : project 來展示一下所謂 找發散 => 做平衡 的因果,不然恕我想像不到你的思路 : XD。我甚至對於你「找發散」的數學模型都非常好奇,請務必指教一下。 : GA 的本質不脫上一代 AI 的搜尋方式,我是不會期待它比起深度學習有普遍性 : 的更佳表現啦。GA 最大的缺點基本還是在於並沒有嘗試整合 pattern,在學習規模 : 相同的情況下,想訓練出並儲存等量且差異性的學習結果會比深度學習 Cost 更高。 就如同我前面說的 阿法狗出來之前說AI下棋沒價值 狗出來之後人類換說不完全訊息AI不會做 撲克打下來之後人類換說AI不會繪畫音樂 最近聽到的是AI寫程式沒價值 這種話聽太多了 這個不行那個也不行話人人都會講 用什麼方式完成我都可以接受 反正人類就是做不好 我在說的只是嘗試於找到一條可以用AI做平衡的理論推演 你能提出另一個用AI做平衡的方式我也歡迎 -- DC群-AI魔法師公會(AIMageGuild) 歡迎你的加入 (請看個人資訊) 一起來聊AI的各方面包含 AI硬體 AI演算法 AI思維 AI咒語 使用AI生產 AI打牌下棋的思維 後AI時代的商業模式 都可以聊 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 131.147.158.37 (日本) ※ 文章網址: https://www.ptt.cc/bbs/GameDesign/M.1685032229.A.76D.html

05/26 02:57, 1年前 , 1F
抱歉忍不住
05/26 02:57, 1F

05/26 03:00, 1年前 , 2F
反過來說,AI 這個也可以,AI 那個也可以的話人人都會講
05/26 03:00, 2F

05/26 03:02, 1年前 , 3F
不打算抨擊你,但是你想討論的不是平衡而是AI至上
05/26 03:02, 3F

05/26 12:39, 1年前 , 4F
講半天還是沒看到數學模型或至少 cost 分析,我還是等有
05/26 12:39, 4F

05/26 12:39, 1年前 , 5F
至少 toy project 成果再討論比較實際
05/26 12:39, 5F

05/26 12:47, 1年前 , 6F
講 AI 至上論我其實沒啥問題,問題大的地方在找解本來就
05/26 12:47, 6F

05/26 12:47, 1年前 , 7F
也是 AI,有什麼理論基礎說找平衡 AI 表現就會比較優秀,
05/26 12:47, 7F

05/26 12:47, 1年前 , 8F
也沒看到
05/26 12:47, 8F

05/26 12:49, 1年前 , 9F
特別是還提出什麼找發散,這根本與現今所有主流 AI 概念
05/26 12:49, 9F

05/26 12:49, 1年前 , 10F
都是相反的,不管找解找異質找多樣性,現今 AI 始終是用
05/26 12:49, 10F

05/26 12:49, 1年前 , 11F
收斂方式,找發散的數學模型到底長怎樣我是真的願聞其詳
05/26 12:49, 11F

05/26 12:52, 1年前 , 12F
而且講來講去居然丟一個 GA 出來,明明 GA 正是上一代 AI
05/26 12:52, 12F

05/26 12:52, 1年前 , 13F
裡面找收斂解的經典之一(不是因為它同時找多組就叫做找
05/26 12:52, 13F

05/26 12:52, 1年前 , 14F
發散了),到底怎麼冒出找發散概念的
05/26 12:52, 14F
演化式計算是在Crossover/Mutation與Selection兩大主要步驟做iteration Selection力道越強 space會越收斂 所以經常用來找收斂 這不代表演化式計算只能找收斂 把evo step加強 削弱selection力道 就能拿到發散中的space

05/26 12:54, 1年前 , 15F
要是提個 GAN 還比較有譜,雖然跟找發散還是八竿子打不在
05/26 12:54, 15F

05/26 12:54, 1年前 , 16F
一起
05/26 12:54, 16F
GAN也可以啊 要怎麼define誰是G誰是D 我也是樂意討論 把G當作平衡數值產生器可以 我當初的問題是卡在D要怎麼去評價這個G? 因此我試圖用strategy space作為評價方式 當strategy space複雜度越高越好 相當於G對D打分越高 但這就脫離GAN本身的概念是對抗 另外還要找增加space複雜度的方法

05/26 12:59, 1年前 , 17F
另外沒價值那段根本是你把話塞別人嘴裡,事實始終是做得
05/26 12:59, 17F

05/26 12:59, 1年前 , 18F
不夠強就沒價值,強了當然有價值。那要強需要什麼,有理
05/26 12:59, 18F

05/26 12:59, 1年前 , 19F
論基礎、有實作成果、有重現性。而不是隨便來個思考轉彎
05/26 12:59, 19F

05/26 12:59, 1年前 , 20F
就叫做有價值,遊戲界最不缺的就是點子。
05/26 12:59, 20F
要是沒做出實驗就沒價值 那現代科學早就停滯不前了 你去跟愛因斯坦說死前沒做出prototype所以相對論沒價值 弦論沒實驗沒價值 理論先行早就是常態 討論如何define 如何套用已經存在的技術 都討論完當然可以丟下去實驗 目前就還是在討論和設計階段 我的推導到也不是為了停在純理論 而是要找出一個可以落地的方式 誠如前面說的哪種AI我都可以 討論define出好的GAN我來訓練也很樂意 ※ 編輯: PosetMage (220.146.150.15 日本), 05/28/2023 22:18:38

05/30 13:52, 1年前 , 21F
BZ例子重點不在平衡 而是被砍的玩家不高興
05/30 13:52, 21F

05/30 13:54, 1年前 , 22F
發文造成玩家不滿 可以求助AI改善語氣
05/30 13:54, 22F

05/31 19:09, 1年前 , 23F
我真的覺得你要好好重新思考一下你口中的找發散到底是什
05/31 19:09, 23F

05/31 19:09, 1年前 , 24F
麼東西……
05/31 19:09, 24F

05/31 19:17, 1年前 , 25F
GA 用於找收斂,不代表把參數反向操作就會「找發散」,說
05/31 19:17, 25F

05/31 19:17, 1年前 , 26F
到頭來你所謂找發散到底數學模型是什麼東西?你讓結果發
05/31 19:17, 26F

05/31 19:17, 1年前 , 27F
散那停止條件是什麼?你怎麼證明你所謂的發散結果比隨機
05/31 19:17, 27F
停止條件在講什麼東西 你好好重新思考一下為甚麼圍棋AI到現在ELO還是在上升中

05/31 19:17, 1年前 , 28F
更發散或更平衡?要是連個 objective function 都寫不出
05/31 19:17, 28F

05/31 19:17, 1年前 , 29F
來,那你已經是在開創非現行機器學習的新領域了,恭喜你
05/31 19:17, 29F

05/31 19:17, 1年前 , 30F
成為先驅並期待你的實作與應用
05/31 19:17, 30F

05/31 19:21, 1年前 , 31F
還拿愛因斯坦來比,理論物理學家雖然不一定做實驗證明,
05/31 19:21, 31F

05/31 19:21, 1年前 , 32F
但是會提出嚴謹的理論模型,而且根據那個模型計算的結果
05/31 19:21, 32F

05/31 19:21, 1年前 , 33F
還要能夠不違反過去所有的相關實驗結果好嗎?
05/31 19:21, 33F

05/31 20:33, 1年前 , 34F
有臉拿愛因斯坦跟自己抬槓比,相對論是論壇聊出來的?
05/31 20:33, 34F

05/31 20:35, 1年前 , 35F
先理解論壇抬槓跟論文的差距再找比喻比較好
05/31 20:35, 35F
※ 編輯: PosetMage (118.86.155.227 日本), 06/01/2023 10:04:34

06/02 19:11, 1年前 , 36F
無視停止條件,我很難相信你在做 AI 耶XD
06/02 19:11, 36F

06/02 19:22, 1年前 , 37F
你可以回去複習一下你自己提的 GA 一樣需要 Stopping Con
06/02 19:22, 37F

06/02 19:22, 1年前 , 38F
ditions,不然它怎麼判斷演化足夠好可以給你結果了
06/02 19:22, 38F

06/02 19:32, 1年前 , 39F
至於 AlphaGo 為什麼還有機會持續訓練提升實力,原因也很
06/02 19:32, 39F

06/02 19:32, 1年前 , 40F
簡單,你可以先猜看看。
06/02 19:32, 40F

06/02 19:32, 1年前 , 41F
但即便是這樣,AlphaGo 還是要收斂出 李世石版、Master
06/02 19:32, 41F

06/02 19:32, 1年前 , 42F
版以及 AlphaZero 這些特定版本。理由也很淺顯易懂XD
06/02 19:32, 42F
文章代碼(AID): #1aRuqbTj (GameDesign)
文章代碼(AID): #1aRuqbTj (GameDesign)