PARL
PARL copied to clipboard
请问在实现 Actor-Critic算法的时候,有过将 网络层 共享的案例嘛
我提问的是,Actor 需要输入 状态state,Critic 需要输入 状态state,动作 action。 那么是否可以 Actor 模型 和 Critic 模型 共享网络(状态state 特征提取)呢?
目前还没有呢,我们补充一个,感谢你的反馈:)
我最近有根据,PARL/examplex/DDPG的程式范例,也是使用mujoco一样的环境。
结合 这篇论文《Integrated Actor-Critic for Deep Reinforcement Learning》的设计思想(链接https://par.nsf.gov/servlets/purl/10333252)进行试验,但是貌似实验,失败了 哈哈哈!
才想问问看!