Gang Dai
Gang Dai
把store_type的值改成img,重新生成一次就好
测试集总共是60个书写者,每个书写者3755个字符,总共20多万数据,并且transformer在inference过程中是无法并行解码的,所以生成完整的测试数据是比较慢的。如果只是想跑起来试试,每个书写者生成一部分数据即可,设定``--sample_size=500``时,大概``20``多分钟即可生成完毕。
> 看到生成文字了,这些图片名前缀数字是代表什么 数字代表测试集书写者的ID
> test.py generates images that all seem to have the same font. How can I modify the input data to generate other fonts? In addition, is there a specific division...
你的pytorch是GPU版本的嘛?我怀疑你用的是CPU在跑模型,所以跑起来很慢
感谢你对本项目的关注~ - 1. 不需要重新训练了,直接把自己写的文字上传就行,关于如何生成自己的字体,最近我会上传一个详细的教程。 - 2. pretrained_model的文件我们提供了两种百度网盘和谷歌云端硬盘两种下载路径,你下载到本地,然后填入本地存储路径就好。 - 3. 我们生成的字体有两种形式,在线轨迹和png图片两种格式。目前代码默认是生成png图片,如果想要转换成字体文件,直接百度关键词“png图片转成ttf格式字体”即可。
代码中模型和数据都默认执行了``.to('cuda')``。或许运行的时候指定下GPU能够解决这个问题,使用如下指令: ``CUDA_VISIBLE_DEVICES=0 python test.py ...``
那可能是环境的问题。我是在``RTX 3090``上跑的,软件环境如下: ``` python 3.8 pytorch 1.8 easydict 1.9 einops 0.4.1
理论上,只要有对应的数据都可以训练。需要采集小篆的图像和对应的书写轨迹。然后等训练完毕,使用过程中就只需要输入图片就可以使用了。
> > 那可能是环境的问题。我是在`RTX 3090`上跑的,软件环境如下: > > ``` > > python 3.8 > > pytorch 1.8 > > easydict 1.9 > > einops 0.4.1 > > ``` > > 请问你的 显卡是那个型号的...