ZHENG Fan

Results 21 comments of ZHENG Fan

hi,是不是你对公式里的狄利克雷函数的理解和我不一样? ![file may 19 4 59 59 pm](https://cloud.githubusercontent.com/assets/8697363/26240755/b58da4ca-3cb4-11e7-88b3-02481fd99d5b.jpeg)

原来这样,算到第二步括号里已经是常数,有没有期望符号都无所谓了。

在优化问题里,左乘右乘都无所谓。 左乘右乘对雅可比的推导难度影响不大,四元数左右矩阵换来换去而已。

你用的是左扰动,博客里是右扰动,推出来当然不一样了

想到如何形象地解释不同扰动模型为什么会导致不同雅可比(不严谨,但形象,意会即可)。请看下图,优化问题就是给定一个起始点,找到一条路径下降到最低点(最优点)。不同的扰动模型,等于选取不同方向的路径;所谓雅可比,可类比于路径中某一点的斜率,它指定了路径下一步往哪里走;路径不同,途中点的斜率也就不同。 @liyuebit ![5c4e4e17-1afb-40a9-8dcd-e85c26bcf37b](https://user-images.githubusercontent.com/8697363/43306215-fff53138-91ac-11e8-88d7-27277621b383.jpeg)

你的推论没错,有两个概念要分清: 1. 当我们求 Jacobian 时,小量是理想小量(Jacobian 就是多元导数嘛,导数分母按照定义就是理想小量的)。 2. 当我们在讲具体的优化过程,increment 必然不是理想小量。由此带来的误差就是 linearization 误差,不管你使用 k 还是 k+1 时的量来求导都会有 linearization 误差。

你好,建议你读一下 g2o 的论文,会了解这个问题的理论本质。 「求解非线性最小二乘问题,雅各比矩阵应该是针对我们想求解的状态的」,这句话既对也不对。在图优化里,Jacobian 最终就应该是 w.r.t. 增量的。因为在求解Gauss-Newton系统 ( H dx = b) 时,待解量是增量。但是呢,Ceres 里没有这种直接求 w.r.t增量的 Jacobian 的途径(g2o 就有);所以,实际你在 Ceres 实现图优化时,解析形式的 Jacobians 需要给两个:error w.r.t. State & State w.r.t. incremental, Ceres 在优化时会把这两个...

你想得很深入了,不过你说「遇到一个普通least square的问题,我们可以直接对想要求解的量x求Jacobian,这时候我不这么做,而去对增量求Jacobian,这样算法本身就改变了呀,根本就不是一个Jacobian」,其实你不妨想一想,在线性的情况下,对 x 和对 dx 求导真的不是一个 Jacobian 吗? 假如对 dx 求导,那就是 J = d e(x+dx) / d dx; 假如对 x 求导,那就是 J = d e(x) / d x; 其实是同一个哦。因为 d...

可以再想深一点。我前面说,在图优化里,Jacobian 最终就应该是 w.r.t. 增量的;因为求解Gauss-Newton系统 ( H dx = b) 时,待解量是增量。 优化问题是干什么呢?是为了找一个增量,这个增量使代价函数变小,也就是使 e(x) 变小。e(x) 对 dx 的Jacobian 又是什么呢?是 e(x) 随 dx 增加的**变化率**。让 dx 一直朝向使 e(x) 小的方向走,这就是图优化迭代的过程。所以说,Jacobian 最终就应该是 w.r.t. 增量的。

try include opencv headers before include coost headers