AlphaZero_Gomoku icon indicating copy to clipboard operation
AlphaZero_Gomoku copied to clipboard

An implementation of the AlphaZero algorithm for Gomoku (also called Gobang or Five in a Row)

Results 77 AlphaZero_Gomoku issues
Sort by recently updated
recently updated
newest added

It seems the model made a mistake near the end. 似乎提供的模型在接近末尾的地方出错了。 Before that I think it did an OK job. 之前下得还可以。 The process in short: 简略过程: O (model) went first....

我使用 GPU 训练发现只有神经网络训练部分加速了,而 self-play 部分的速度并没有得到显著提升,这是为什么呢?

self.input_states = tf.placeholder( tf.float32, shape=[None, 4, board_height, board_width],name="input_states") 第二的参数为什么是4,代表着什么?按道理不是应该是3(3种情况,玩家1,玩家2,未下),有人可以帮我解答一下吗?

ai@ai:~/AlphaZero_Gomoku-master$ python human_play.py Player 1 with X Player 2 with O 0 1 2 3 4 5 6 7 7 _ _ _ _ _ _ _ _ 6 _...

你好,我用Keras跑了你的代码之后,也生成了模型。但是在human.py那加载(也是用Keras版的策略价值网络),会报错。 错误为: net_params = pickle.load(open(model_file, 'rb')) TypeError: expected str, bytes or os.PathLike object, not list 看起来似乎是模型的格式不对,请问这个问题该如何解决呢?

In the training phase, the value is always close to 0.

我在您的网络基础上修改了一下,在使用tensorflow构建网络训练时,loss值很小,只有大概0.9,且一直不收敛,于是我这边又按照我写的tensorflow的网络结构写了一个pytorch版本的网络,pytorch版本的训练出来的模型是没有问题的,两个网络的结构都是一样的,并且我都使用的相同的训练参数以及游戏数据接口,但是使用tensorflow写的那份一直有问题,我找了很久都没找到问题所在,能帮我看看问题出在哪里吗?万分感谢 附上tensorflow版本的代码 (这是有问题的一份) `# D:\anaconda\envs\tensorflow\python # _*_ coding:utf-8 _*_ import numpy as np import tensorflow as tf from logger import logger from config import * class PolicyValueNet: """ policy-value-network """...

i'm a freshman in pytorch, when i follow the guides to train the AI model from scratch, and run the human_play.py, errors display:RuntimeError: Error(s) in loading state_dict for Net: size...

我在VPS中使用8核Intel至强CPU,TensorFlow训练模型时可以达到100%的CPU占用率,但是在本地机器上,使用6核Ryzen仅有30%的占用率,双路32核皓龙仅有9%的占用率