Calvin

Results 19 comments of Calvin

现在都用whisper了 ---原始邮件--- 发件人: "Tong ***@***.***> 发送时间: 2023年12月4日(周一) 晚上9:01 收件人: ***@***.***>; 抄送: ***@***.******@***.***>; 主题: Re: [mymagicpower/AIAS] 能否提供一个使用onnx-engine或者pytorch引擎运行onnx模型的案例 (Issue #37) 我接触过ocr识别的案例,但是我不知道1.deepspeech2的paddle模型是否支持转为onnx模型 2.如何将语音数据转为张量输入到模型中 3.如何将模型的输入转为我需要的格式 在djl中张量是NDList 大神能指点一下上面3个问题吗? 此外我发现你的ocr_sdk有一个小问题 虽然在载入模型时指定运行引擎为onnx-engine但是时间运行使用的是pytorch-engine。愿意是translator中的一些方法用到了pytorch引擎。 1.但是对应输入和输出定位处理都是张量运算为什么会依赖pytorch呢? 2.我通过环境变量指定引擎为onnx-engine但是运行时报错 3.既然ocr的模型格式是onnx,能否再不依赖pytorch-engine的情况下运行呢?具体如何修改代码呢? On Sun,...

Path path = Paths.get("") ......path.toString()

https://github.com/xinntao/Real-ESRGAN-ncnn-vulkan

> > Here are the steps to run DiffusionBee with actual TF backend. Hope this helps. > > > > 1. Clone Diffusion Bee repo > > `git clone https://github.com/divamgupta/diffusionbee-stable-diffusion-ui.git`...

Issue fixed. ` stderr: WARNING:tensorflow:AutoGraph could not transform and will run it as-is. Cause: Unable to locate the source code of . Note that functions defined in certain environments, like...

Traceback (most recent call last): File "/root/autodl-tmp/test.py", line 11, in trace_model = torch.jit.load("./traced_chatglm2_6b_fp16.pt") File "/root/miniconda3/envs/glm118/lib/python3.10/site-packages/torch/jit/_serialization.py", line 162, in load cpp_module = torch._C.import_ir_module(cu, str(f), map_location, _extra_files, _restore_shapes) # type: ignore[call-arg] RuntimeError:...

rename dir "chatglm-6b" to "chatglm_6b" issue fixed.

已更新: https://pan.baidu.com/s/1P3hfmGMHL56ENYLpGShYNg?pwd=wf6s

paddle 引擎不支持 M2 ![image](https://github.com/mymagicpower/AIAS/assets/37390155/37c251d5-4ee7-4b83-8b4b-9b0361b13480)