zephyr
zephyr
I've submitted a pull request #68 , It's doing fast block based marching cube to produce high resolution mesh, up to 1024^3. You can use blender's mesh simplification to process...
2048^3 takes 15GB VRAM, 3.5 minutes. just change 1024 to 2048. But the mesh is to big for web GUI to display, you can still download the OBJ. 2048^3 用...
> 只是Resolution数字更大了,还是mesh效果也明显更好了? 分辨率大了肯定效果更好,面很锐。但是,这个本质还是插值,原本的 Triplanar分辨率较低的 @yuedajiong
 左边是 2048 右边是256 @yuedajiong @CBQ-1223 这个锐度可以了吧
> @thatname 谢谢大神 > > 按照我有限理解,所以要提高质量: > > 1. 直接利用输入,更充分的利用,输入那张图片 (第一优先,如果是面向copy-like还原立体的需求的话) > 个人感觉,往大里弄模型和数据,后面优化提升还有很大空间。 现在大家都没有足够大。 > 2. 对输入做扩展,本质利用先验,现在各种做法,按照有效性排序: > 2.1 直接产生其他对应相机角度的。 (这个好处是相机位置是按照固定的产生,后面渲染的时候相机已知) > 2.2 产生360环绕的视频。 (这个相机路径有强约束,但并不是每帧很精确) > 2.3 产生强相关视频。 (这个主要利用视频生成中强大的先验,但相机位姿没啥控制) >...
感觉我说的还是不对,不一定说从2D模型来生成3D就一定要逐个走优化,应该是能直接建立2D->3D映射的,这个过程是确定的,训练出来就行。
> > Changes: > > > > * Do triplane sampling in a block based manner, reduced VRAM usage. > > This version can generate 1024^3 on 3090 in 33...
> > > @thatname 谢谢大神 > > > 按照我有限理解,所以要提高质量: > > > > > > 1. 直接利用输入,更充分的利用,输入那张图片 (第一优先,如果是面向copy-like还原立体的需求的话) > > > 个人感觉,往大里弄模型和数据,后面优化提升还有很大空间。 现在大家都没有足够大。 > > > 2. 对输入做扩展,本质利用先验,现在各种做法,按照有效性排序: > >...
See my repo on huggingface: https://huggingface.co/thatname/Ziya-LLaMA-13B-v1-ggml
I fixed this, you can try #68