Visualizer icon indicating copy to clipboard operation
Visualizer copied to clipboard

assistant tools for attention visualization in deep learning

Results 17 Visualizer issues
Sort by recently updated
recently updated
newest added

我想查看transformerdecoderlayer里的attn,在主函数中get_local.activate(),但是cache中的['transformer_decoderlayer']中是[],我的模型结构是train中调用model,model中调用transformer

Visualizer是只能处理一张图像输入的情况吗,不能输入一个batch,我发现输入一个batch会返回一个空的cache.

``` c = Bytecode.from_code(func.__code__) extra_code = [ Instr('STORE_FAST', '_res'), Instr('LOAD_FAST', self.varname), Instr('STORE_FAST', '_value'), Instr('LOAD_FAST', '_res'), Instr('LOAD_FAST', '_value'), Instr('BUILD_TUPLE', 2), Instr('STORE_FAST', '_result_tuple'), Instr('LOAD_FAST', '_result_tuple'), ] c[-1:-1] = extra_code ``` 请教各位大佬,这部分的字节码是啥意思?是怎么得到@get_local值的?

你好,如果我想要全局的注意力图,要怎么操作呢,你的demo是对应某个grid的注意力图

I appreciate your interesting work. In the `cls_padding` function, there are two lines that seem to be a bug: ```python mask = mask / max(np.max(mask),cls_weight) cls_weight = cls_weight / max(np.max(mask),cls_weight)...

![image](https://user-images.githubusercontent.com/89134118/164952980-9b1da775-cd62-45f0-a5be-4e567e131745.png) 首先感谢您的代码,其次第一个问题,在您的代码中不同的网格序号生成的图像的注意力是不一样的,也就是说网格是它的注意力图的灯塔,但是在我生成的图片中,不同的网格序号生成的图片完全一样,这是什么原因?然后第二个问题,为什么我生成的图片全局花里胡哨,而不像您的那种除了网格附近是颜色亮的,其余地方是冷色系?期待您的解答和回复,谢谢。

您好, 我用您的方法展示了我的模型可视化结果并呈现在了我的论文中, 但我似乎没有在您的github主页找到相关的引用说明. 请问我该如何在我的文章中写引用了您的Visualizer呢?