[魯蛇] 從AI訓練思維來看遊戲平衡這件事
如果要訓練AI當策略遊戲的平衡還有拿來當AI的思維:
先分類型 規則多的或者數值多的
規則多的基本上必須以decision tree為主的方式去設計AI
數值多的話則很好套用hidden layer的概念
當然是建議規則類型能減少就減少,畢竟越多規則會造成複雜的程式碼
魔法風雲會就是規則多 然後多到還有官方出被自己方官方禁卡的智障行為
寫成程式當然也是超級麻煩
訓練過程可以定義方向會方便很多,比如戰棋或者卡牌或者RTS有"勝負"
因為可以定義勝負了,所以可以採用強化學習(Reinforcement learning)去讓AI左右互搏
學到一定程度之後,檢查"strategy space" 和 "strategic depth"
如果Strategy Space太小就是平衡太差,
好的平衡就是盡可能擴大Strategy Space 從這個定義可以看出訓練上的困難,
因為AI訓練是要找一個最好可以收斂的方向,比如勝率最終雙方會趨於50:50
(一般來說通常有先發優勢,可能是55:45,舉例來說,麻將就是25:25:25:25,四個高手
一起打就是平均值在平手。)
問題是我們想要並不是一個收斂的結果,而是盡可能發散的Strategy Space。
反向傳播(Backpropagation)訓練AI是只能往收斂走,無法往發散走的。
從AI概念可以推論出真把平衡做好的很難
玩遊戲也可以看出這種天生的非對稱性:
策略遊戲玩家經常可以找到較好的策略,甚至因為某幾招特別好用,大家都用同一招了
策略遊戲製作團隊卻難以找到好的平衡,
比如Blizzard遇到平衡問題,就是先nerf再說"我們覺得這樣很cool。"
--
DC群-AI魔法師公會(AIMageGuild) 歡迎你的加入 (請看個人資訊)
一起來聊AI的各方面包含 AI硬體 AI演算法 AI思維 AI咒語 使用AI生產
AI打牌下棋的思維 後AI時代的商業模式 都可以聊
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 126.119.53.227 (日本)
※ 文章網址: https://www.ptt.cc/bbs/GameDesign/M.1681215649.A.EA0.html
留言