[Auto Parallel] Try to refine dist_api_gen
PR Category
Auto Parallel
PR Types
Others
Description
这个和 https://github.com/PaddlePaddle/Paddle/pull/73101 应该是同一个问题:反向算子的 target_shape 参数的作用,比如 expand_grad 的 cpu 就使用了 target_shape,gpu 就是使用 out_grad.dims(),感觉目前需要这么一段代码来保障 cpu 和 gpu 一致。现有的反向给 kerenl 传入的 local_shape 是 x_grad ,并不符合要求(至少语义上是,可能因为 gpu 都是直接使用 out_grad.dims() 所以并没有暴露出问题来),所以新增 local_kernel_shape 作为补充
先前的 expand_grad api
现在的 expand_grad api
你的PR提交成功,感谢你对开源项目的贡献! 请关注后续CI自动化测试结果,详情请参考Paddle-CI手册。 Your PR has been submitted. Thanks for your contribution! Please wait for the result of CI firstly. See Paddle CI Manual for details.
需要解决下冲突
/re-run all-failed
/re-run all-failed