WindVChen
WindVChen
哈喽 @fangxuehouwuming , 不好意思回复晚了,自注意力层的选取我们没有做特别的消融实验哈,目前主要是为了减少些计算量哈~ 不过经验上来看的话,分辨率更高的自注意力图能捕捉到更明显的结构信息,可以调整参数可视化出来看看~
哈喽 @niania-whb , 这一部分是指**对扩散模型的隐变量直接做优化**哈,可以看[这部分](https://github.com/WindVChen/DiffAttack/blob/b90edffe932d19ee77d1aa849bc86a96d17c2c52/diff_latent_attack.py#L473C5-L473C47)的的代码段,隐变量为优化对象.
哈喽,准确来说是有三个损失函数共同作用哈([见此](https://github.com/WindVChen/DiffAttack/blob/b90edffe932d19ee77d1aa849bc86a96d17c2c52/diff_latent_attack.py#L534)). 另外,这里是对整个 latent tensor 进行优化的,并不存在“latent 的文本部分”这种说法。在 classifier-free 的去噪过程中,会对 latent 进行复制,分别在带文本条件和空文本条件下进行去噪,最后将二者的结果融合 ([见此](https://github.com/WindVChen/DiffAttack/blob/b90edffe932d19ee77d1aa849bc86a96d17c2c52/diff_latent_attack.py#L301)).
这个蛮奇怪的,我这儿没有遇到过这个问题,有改动哪一部分代码嘛?是直接按照ReadMe里的步骤来跑的嘛?
哈喽 @niania-whb , 不好意思回复晚了,上面这个`TORCH_USE_CUDA_DSA`问题以及这个热力点的问题我不是很确定. 这两个问题在默认的ImageNet-Compatible数据集上会出现同样的问题吗?还是说目前只有在私有数据集上出现呢?
上面提到的"cross attention 之前 之后"是指什么呢? 热力图是说变化不明显吗?我看上下两行系列上还是有些变化
可以尝试下增大transfer loss的权重,看看是否有更明显的变化? https://github.com/WindVChen/DiffAttack/blob/main/main.py#L46
我之前没有尝试过比较多的修饰词,大部分都是控制在1-3个文本之内. 那可以先尝试下 1) 减少修饰词,比如约束在1-3个词之内;2) 尝试将structure loss的权重降低,因为它对于个人数据集来说,带来的约束可能比较强. 看看这些是否带来改变.
哈喽 @liaojie1314 , 防御方法的源码可见`ReadMe`里这一块哈. (对除DiffPure之外的防御方法,我们主要调整了分辨率和设置了图中所示的方法对应参数,其他没做什么改动哈)
从上面的HGD结果来看,你测试所得到的攻击效果是比论文里的结果还要好二十几个点吗?因为我们之前测试的ASR应该为1-62%=38%. 如果是这样的话,可以看看在正常分类器上的指标如何,以及确认下是否有调整方法的参数. 下面是我手头上能找到的DiffPure代码,由于时间比较久了,我不太确认这是不是我最终测试使用的代码,可以参考一下: [DiffPure-Modified.zip](https://github.com/user-attachments/files/22921622/DiffPure-Modified.zip)