Jadaeu
Jadaeu
Hello, I also have the same question about the convergence of rewards gragh. Have you solved this problem already? I will apreciate it if you can offer an anwser for...
> @Sanmu123-lab @Jadaeu Hi, I solved this problem, Actually, it is not a problem, the graph trending is good, just only not convergence yet. First, we should know when the...
> > 很高兴你对我们的论文感兴趣,下面对你的疑问依次回答: > > > > 1. 对的,因为每个边缘节点的目标都是让整个系统的服务率提高。 > > 2. 第二个、第三和第五个问题非常相关,那我就直接一起回答了。 > > > > > > * 首先,论文中构造的势函数第二项表示当边缘节点e什么都不做时得到的效用,那么在实验时,可以通过设置边缘节点e的动作来得到具体值。 > > * 然后,势博弈有一个非常好的特性,也就是势函数的上升趋势和效用函数的趋势是保持一致的,而如果采取不同动作导致的势函数变化值与效用函数变化值完全一样,那么就是严格势博弈(Exact Potential Game)。再回到势博弈的证明中,可以发现,证明中公式倒数第2行的最后2项都表示除边缘节点e外的所有节点都采取了同样的策略(S_{-e}),而边缘节点的动作是空的,也就是什么都不做,那么最后2项的值显然是相等的,所以该2项相减结果等于0。 > > *...
@lwc6666 ,非常感谢您的回答!我去找找之前的版本
> 博主您好,我是一名在读研究生,十分有幸读到了您的这篇论文,想深入学习下去,在论文和实验中我遇到了一些困惑,尽力查阅了不少资料后还是不太明白,希望能够向您请教,感激不尽。 1.文中每个边缘节点的效用函数,都是所有边缘节点的服务比之和吗  2.您的势函数是如何构造出来的,不太明白势函数的第二项Ue(-Se,S-e)的意思,和怎么计算的  3.您在证明这个势函数的时候,最后一步是把Ue(-Se,S-e)和Ue(-Se‘,S-e)抵消了吗,有点不太明白怎么消去的  4.在跑您实验中的D4PG算法时,我得到的average_execution_times和average_service_times的值非常小,  使用是默认的global数据,和文中的结果不太符合,文中的D4pg,APT和AST的值看起来是7和10左右。其余的算法都符合您图中的数值,没有找到问题是出现在哪里了。 5.关于势博弈您有一些资料推荐吗,看了原文感觉读起来有些吃力。。 希望博主能在闲暇之余给予一些指导,非常感激您 您好,我跑通代码得到的运行结果和你的是一样的,不知道原因是什么?求解答
> > > > 你要先尝试把环境里安装的包打印出来,看看是否和[https://github.com/neardws/Game-Theoretic-Deep-Reinforcement-Learning/blob/main/environment.yml中一致](https://github.com/neardws/Game-Theoretic-Deep-Reinforcement-Learning/blob/main/environment.yml%E4%B8%AD%E4%B8%80%E8%87%B4) > > > > > > > > > 十分感谢您的回复,我首先执行conda env create -fenvironment.yml在安装某些包时报错而终止,然后我到处requirements.txt文件,并使用pip -rrequirements.txt命令安装所需要的全部包 检查后和您提供的[https://github.com/neardws/Game-Theoretic-Deep-Reinforcement-Learning/blob/main/environment.yml 中的包版本全部一致,但就是运行不起来。](https://github.com/neardws/Game-Theoretic-Deep-Reinforcement-Learning/blob/main/environment.yml%E4%B8%AD%E7%9A%84%E5%8C%85%E7%89%88%E6%9C%AC%E5%85%A8%E9%83%A8%E4%B8%80%E8%87%B4%EF%BC%8C%E4%BD%86%E5%B0%B1%E6%98%AF%E8%BF%90%E8%A1%8C%E4%B8%8D%E8%B5%B7%E6%9D%A5%E3%80%82) 还有一个问题请问你的包全部用conda命令安装的嘛?  > > > > > > 我使用unbuntu20.04,conda命令直接安装就成功了,好像报了一个依赖错误,我把protobuf==3.20.0,改成3.20.1就ok了...