Koki
Koki
すみませんこれ送るファイル(audiosep_resunet.onnx)を間違えてしまっていたみたいです。 googleストレージの方ではsegmentation faultが出たのですが自前の環境にある正しいファイルを使うとCPUでもGPUでも(どちらもAMD)サンプルは実行できました。ただそちらの方でも入力のサイズを大きくするとsegmentation faultが出てしまうようです。
Pytorch版を実装する。 https://github.com/sicxu/Deep3DFaceRecon_pytorch
動かすのに必要なBasel face modelがnon-commercial use only
わかりました。
pytorch版の微分可能レンダラはNvidiaのGPUを必要とする。tf_mesh_rendererはCPUでも動作するとのことなのでTF版を試そうとしたが動作するには至らず。またカスタム演算子を用いてモデルを定義しているためONNXへの移植も難しそう?
訓練を要するのでcolab上でREADME通りにやろうとしたがデータセットが合計で41GBあるため断念
Tokenizerと同じで必要ないと思ってました🙇🙇 後でSlackにアップロードします
ClapProcessor内のfeature_extractorはnn.Moduleではなかったようなのですが、torchの関数が使われていたのでlibrosaメインに書き換えて対応しました。
エラーのもとになっているfeatures.pyはLOG_SPECTだけじゃなくてDBNDownBeatTrackingProcessorやparticle_filtering_cascadeを使うときにも必要なので、LOG_SPECTの修正だけではDBNと粒子フィルタどちらの推論モードでも依然エラーは出てしまいます。必要なコードだけmadmomからとってきて同じディレクトリに入れることができないかとも思いましたがCythonが使われているのでこれも簡単ではなさそう。 GitHubにある実装ではインポートの問題も解消されているのですが、pipのやつは古いままになっているのでrequirements.txtによる対応は難しそうです。