TamaGo
TamaGo copied to clipboard
Onnx
推論部分をONNX Runtimeにしてみる実験しました。 Core(TM) i7-1355U では PyTorchでのCPU推論に比べて、ONNX RuntimeとDirectMLによる統合GPUによる推論で3~4倍速くらいになりそうです。
"CoreMLExecutionProvider" でMacの人も高速化するかもしれません。 https://onnxruntime.ai/docs/execution-providers/CoreML-ExecutionProvider.html