li199603
li199603
这是因为预训练向量里没有词向量,都是字向量。具体看utils.py最后的代码,作者仅抽取出了部分向量
那两个函数看起来2-gram变成1-gram,3-gram变成2-gram了。是不是应该把t也考虑进去?
> > > > 就是用几个质数做的简单的哈希函数,这些数都是可以改的,你也可以自己定义一个哈希函数,目的就是把所有n-gram都映射到一个词表中。 (每个n-gram会得到一个数值,该数值对词表大小取模,得到它在词表中的位置) > > > > 词表大小也是自己定的,理论上词表越大,效果越好;词表越小,不同的n-gram就越有可能映射到词表的同一个位置。 但是这里要考虑到内存、耗时的问题(性价比),还有就是有的n-gram组合可能永远不会出现,所以词表也不是越大越好的。 > > > > > > > > > 正常的逻辑不应该是构造一个2-gram和3-gram字典,然后根据这个字典对句子进行idx转换吗?不理解使用哈希的目的。个人觉得没有体现出gram思想中的上下文顺序,因为只要字相同,其n-gram就一样,实际的情况是字一样,上下文也不一定一样。 > > > > > > 我也感觉应该把t也加上,否则的话2-gram无法体现上下字的联系,3-gram在此变成了2-gram >...
看起来好像这里给的预训练embedding里只有字向量
你可以看一下utils.py里最后的代码。作者是把别人提供的预训练字和词向量只提取出需要的部分。你可以按照这个方法把词向量提取出来用
感觉就是直接截断了,超过长度的数据不要了。我是这么理解的,像textCNN只能接受固定长度的文本分类,基于RNN的虽然可以接受不固定长度的,但是因为要批量训练,所以需要长度同一。
> > > (1) I don't think camera opt would work with gaussian splatting by just back propagating gradients, it requires some non-trivial innovation. (2) the fact the shifting 1m...
I try to get a ply from the pth. Referring to 3DGS repo, the following code is written. ```python def save_ply(self, path, t): os.makedirs(os.path.dirname(path)) xyz = self.get_xyz_SHM(t).detach().cpu().numpy() normals = np.zeros_like(xyz)...
@APPZ99 This is a dynamic scene, so the point cloud only makes sense at a certain time t. Because xyz is time dependent
> @li199603 Thank you for your code, I have successfully got the ply file, but when I tried to use the viewer from 3DGS, it told me ""Could not find...