We read every piece of feedback, and take your input very seriously.
To see all available qualifiers, see our documentation.
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
目前是根据当前人的手牌、历史出牌、各玩家出牌历史、剩余数量以及 炸弹组合的,非常庞大的数据量,训练需要耗费非常久的时间。
若调整为 当前人的手牌、下家手牌、上家手牌、最近一次出牌记录 来训练 会不会更快些,也就是大家都是明牌来打斗地主。
LSTM这里 也不要 历史出牌记录来初始化了,直接按照上面的明牌元素,Linear还是保持6层,512大小
最终反正都是按照牌局结束来奖励。
想知道这种策略在 地主与农民 合作与对抗上面 是否有效
The text was updated successfully, but these errors were encountered:
@SvenNJ 我觉得效果会更好,不过这样就训练出来的agent就只能打明牌了
Sorry, something went wrong.
好的,感谢
No branches or pull requests
目前是根据当前人的手牌、历史出牌、各玩家出牌历史、剩余数量以及 炸弹组合的,非常庞大的数据量,训练需要耗费非常久的时间。
若调整为 当前人的手牌、下家手牌、上家手牌、最近一次出牌记录 来训练 会不会更快些,也就是大家都是明牌来打斗地主。
LSTM这里 也不要 历史出牌记录来初始化了,直接按照上面的明牌元素,Linear还是保持6层,512大小
最终反正都是按照牌局结束来奖励。
想知道这种策略在 地主与农民 合作与对抗上面 是否有效
The text was updated successfully, but these errors were encountered: