awei669

Results 22 comments of awei669

> ![1](https://private-user-images.githubusercontent.com/113127481/329927744-81d7c51a-a13e-415c-b392-b747cc921de4.png?jwt=eyJhbGciOiJIUzI1NiIsInR5cCI6IkpXVCJ9.eyJpc3MiOiJnaXRodWIuY29tIiwiYXVkIjoicmF3LmdpdGh1YnVzZXJjb250ZW50LmNvbSIsImtleSI6ImtleTUiLCJleHAiOjE3MTU2MDg5NDQsIm5iZiI6MTcxNTYwODY0NCwicGF0aCI6Ii8xMTMxMjc0ODEvMzI5OTI3NzQ0LTgxZDdjNTFhLWExM2UtNDE1Yy1iMzkyLWI3NDdjYzkyMWRlNC5wbmc_WC1BbXotQWxnb3JpdGhtPUFXUzQtSE1BQy1TSEEyNTYmWC1BbXotQ3JlZGVudGlhbD1BS0lBVkNPRFlMU0E1M1BRSzRaQSUyRjIwMjQwNTEzJTJGdXMtZWFzdC0xJTJGczMlMkZhd3M0X3JlcXVlc3QmWC1BbXotRGF0ZT0yMDI0MDUxM1QxMzU3MjRaJlgtQW16LUV4cGlyZXM9MzAwJlgtQW16LVNpZ25hdHVyZT1iMjQ0YzQ3NDFmNzZlOWMwOTkxMjdkODJlNzg1NGQ1ZmE4MzBiYWI3Yzk2NzljOTgxM2U3ZWM3ZDc2NDM4ZGQ1JlgtQW16LVNpZ25lZEhlYWRlcnM9aG9zdCZhY3Rvcl9pZD0wJmtleV9pZD0wJnJlcG9faWQ9MCJ9.xP7JxtCQ5zB4yytOfngz9DgCf2s-D_lGmdSQSx7FjSw) 您好我想问这里这个train_img_paths应该下面文件组织格式中哪个文件夹的路径? Font Directory |--| content |  --| kaiti4train_VAE |    --| train_3000.png |    --| ... |  --| kaiti4val_VAE |    --| val_500.png |    --| ... |  --| kaiti4train_FFG |    --|...

> 还行再请问一下custom.yaml中的vae_iter是什么参数,vqvae的训练轮次不是在预训练模型里就确定了吗? 还有defaults中的comb——iter指的是什么,我看它初始设置是80000 haoyi ***@***.***   > […](#) > ------------------ 原始邮件 ------------------ 发件人: "awei669/VQ-Font" ***@***.***>; 发送时间: 2024年5月11日(星期六) 下午5:04 ***@***.***>; ***@***.******@***.***>; 主题: Re: [awei669/VQ-Font] 评估问题 (Issue #19) 指定以下参数路径:模型参数weight、内容字体content_font、参考字符img_path、结果存储位置saving_root 随后运行 inference.sh 或 python3 inference.py ./cfgs/custom.yaml \...

感谢你指出这个问题,欢迎交流、讨论、合作。

@bbjsfa 从上到下分别代表1.参考字符 2.GT 3. 模型生成字符

Sorry for the late reply:) The current repo is based on a single GPU implementation, and multiple GPUs have not yet been implemented.

Sorry for the late reply, it seems that some images are missing in your datasets, The Korean .ttf files you collected may not all contain (2000+350) characters. Can i see...

你好,你的截图无法显示。

你好,感谢对我们工作的关注~ (1)SFSU等表示了不同字体和字符的组合情况(风格和字符都有训练集和测试集),FFG方法通常也在UFSC, UFUC上做测试来验证模型的泛化性等,具体解释可以在论文中找到。 (2)你可以再训练一段时间观察下结果,从图上看生成结果的内容跟参考字符中的某一个很像,这可能是受到全局风格特征表示的影响,另外仔细检查预训练阶段VQ-VAE的测试结果,以保证阶段2中内容特征的正确表示。

Sorry for the late reply, i can not remember the reason i use 'data = data - 0.5 # normalize to [-0.5, 0.5]' due to the long time. Maybe is...

你好,是否可以提供更多的报错信息? 看起来是这一步出问题了: reference_feats = self.memory.read_chars(target_style_ids, trg_sample_index, reduction=reduction) 可以检查一下这一步输出的特征纬度是否正确: self.gen.encode_write_comb(in_style_ids, style_sample_index, in_imgs[0]) # [B*3,256,16,16]