Erwin

Results 15 comments of Erwin

> 如果你看不懂,说的直白点,除了流式zipformer, 目前我们不支持其他模型转 rknn。不知道现在看懂了没 你好,请教一下,RK的板子是可以编译安装sherpa-onnx的吧? 如果可以,是否可以在rk的cpu上,通过sherpa-onnx运行onnx模型呢?

> > RK的板子是可以编译安装sherpa-onnx的吧? > > 可以的! > > https://k2-fsa.github.io/sherpa/onnx/rknn/install.html#build-sherpa-onnx-directly-on-your-board 这是直接在 板子上编译 sherpa-onnx 的文档. > > 当然,我们也支持交叉编译. > > 我们也有编译好的 sherpa-onnx, 你直接安装即可. > > > 如果可以,是否可以在rk的cpu上,通过sherpa-onnx运行onnx模型呢? > > 当然可以的. rk 一般用的就是...

> > (1) 在cpu推理模型的话,也可以用sherpa-ncnn吧,对于RK的cpu推荐sherpa-onnx还是sherpa-ncnnne ? > > sherpa-ncnn 和 sherpa-onnx 我们都支持。你根据自己的实际情况选择即可。 > > sherpa-onnx 支持的模型,会更多一些. > > > 有其他推荐的轻量级模型吗? > > 你目前用的这个,已经是非常轻量级了。目前我们没有其他的 > > > 对于KWS或者VAD这种低功耗的任务,一般是跑在CPU、还是MCU上比较多呀? > > cpu. >...

> 但是大佬,这个过程还是用的cpu吧,rk中的例子是用的npu,我们主要是想用npu来跑onnx的流式语音识别 你运行onnx或者ncnn的模型,肯定调用的是RK板子的CPU推理。 要想用NPU,需要先转成rknn的,使用rk的推理库进行推理。