Mr.Fire
Mr.Fire
> > > 我也有这样的问题,F12发现前端访问的url是“localhost”,那么原因就找到了:qanything是部署在公司机房的服务器,并不是浏览器所在的“本地电脑”。 故解决办法:启动时选择cloud,输入服务器的IP地址。 > > > > > > 感谢,请问启动时具体如何操作呢?我是按照README执行docker-compose -f docker-compose-linux.yaml up qanything_local就直接启动了,没有选择的步骤,尝试在.env.production修改localhost为ip也没效果 > > docker-compose -f docker-compose-linux.yaml up qanything_local 这种方式会有不少坑存在。不是卡在这儿就是卡在那儿 > > 建议使用最新代码,"bash run.sh",执行的时候会让你选择 cloud or...
借楼同问,问题差不多就不开新issue了,我的问题是同样的文档同样的问题,本地部署查到的相关文档精度差一些,应该不是LLM的差异问题导致的,但是embed模型和rerank模型在readme写的都是SOTA了,和官网版本应该是一样的吧? 看了下下载的embed模型和rerank模型都在300MB左右,而hf上的模型在1G多,不知道是格式差异还是不是同一个模型。
> 借楼同问,问题差不多就不开新issue了,我的问题是同样的文档同样的问题,本地部署查到的相关文档精度差一些,应该不是LLM的差异问题导致的,但是embed模型和rerank模型在readme写的都是SOTA了,和官网版本应该是一样的吧? 看了下下载的embed模型和rerank模型都在300MB左右,而hf上的模型在1G多,不知道是格式差异还是不是同一个模型。 最新版更新后本地测试,检索精度果然提升很多,估计是之前版本默认reranking没有使用到。
> > > 借楼同问,问题差不多就不开新issue了,我的问题是同样的文档同样的问题,本地部署查到的相关文档精度差一些,应该不是LLM的差异问题导致的,但是embed模型和rerank模型在readme写的都是SOTA了,和官网版本应该是一样的吧? 看了下下载的embed模型和rerank模型都在300MB左右,而hf上的模型在1G多,不知道是格式差异还是不是同一个模型。 > > > > > > 最新版更新后本地测试,检索精度果然提升很多,估计是之前版本默认reranking没有使用到。 > > 细说 大兄弟 你直接使用新版的就行了,最近一次更新官方说的“v1.1.1紧急更新1. 将rerank功能默认设置为打开,v1.1.0版本以前的代码是默认关闭的,会影响检索问答效果”
> Solution:After pulling the latest code (optimized the split logic), delete the "volumes" folder under the project root directory (requires sudo permission, you can enter the container to delete it),...
这个没有,Movenet是针对嵌入式设备边缘部署的,HRNet即使是lite系列也比基于Moibilenet的Movenet大很多,可以预料的是速度会慢很多但是精度会高一些。 而且Movenet本质上是多人场景下的单人关键点识别,HRnet只支持单人场景单人关键点,也就是说前面还要加一个人体检测模型。
否被遮挡不影响,这里没有区分是否遮挡,只要在图片画面范围内,都进行标注。
同学你好,最近家里亲人离世比较忙,节后有空我再看看你的问题吧,不一定能提供有效的方案。发自我的iPhone------------------ 原始邮件 ------------------发件人: Hezhexi2002 ***@***.***>发送时间: 2022年9月30日 08:48收件人: fire717/movenet.pytorch ***@***.***>抄送: Mr.Fire ***@***.***>, Mention ***@***.***>主题: Re: [fire717/movenet.pytorch] 关于修改模型实现多分类以及数据集格式转化和部署的相关问题? (Issue #34) @fire717 大佬你好,就是我是一名大二学生,然后是在中北大学的robomaster战队里负责用神经网络识别装甲板实现自动瞄准,不过就是之前我用yolo系列训练出来的模型最后实际测试时得到的bbox和装甲板的轮廓并不能很好的拟合,导致后续使用pnp进行姿态解算时会有较大误差,所以我想将传统yolo的数据集格式改为用四个角点的归一化坐标,现在的数据集格式是像这样:1 0.673029 0.373564 0.678429 0.426232 0.830433 0.401262 0.824525 0.351212,第一个数字是类别id,后面八个数字是归一化后的装甲板的四个角点坐标,之前我使用yolov5-face已经训练出来一个可以直接定位装甲板四个角点的模型,效果如下: 所以我想请教请教一下如何将我现在的数据集标注格式转化为您使用的coco格式,然后因为我们需要同时识别数字和颜色,所以我想将颜色和数字解耦,就是在head中增添一个1x1conv来单独输出颜色,之前以yolox为基础修改过,但是对于您的模型也不知道如何下手修改,最后就是我之前是通过openvino的c++接口来部署模型,所以不知道大佬能否提供c++实现后处理的相关思路,想参考一下,问的有点多,但还是希望大佬不吝赐:-) —Reply...
1. 数据集转为movenet使用格式参考代码:scripts/make_coco_data_17keypooints.py 2. 增加head很简单,在lib/models/movenet_mobilenetv2.py中参考已有的四个head新增即可,然后设置好对应的输入数据、输出loss计算 3. 我复现这个就是为了去掉一些复杂算子方便部署移植,因此模型可以直接转openvino,然后你就按python的后处理改写C++即可,都是业务逻辑代码不难 4. 另外,movenet本身是针对人体姿态这种非刚体的,对于你的问题,不是很有必要,我觉得直接用通用backbone+wing loss就可以取得不错的效果了,且更灵活 在 2022-10-02 20:10:22,"Hezhexi2002" ***@***.***> 写道: 同学你好,最近家里亲人离世比较忙,节后有空我再看看你的问题吧,不一定能提供有效的方案。发自我的iPhone------------------ 原始邮件 ------------------发件人: Hezhexi2002 @.>发送时间: 2022年9月30日 08:48收件人: fire717/movenet.pytorch @.>抄送: Mr.Fire @.>, Mention @.>主题: Re: [fire717/movenet.pytorch] 关于修改模型实现多分类以及数据集格式转化和部署的相关问题?...
+0.5是考虑像素点的值对于网格化int化的数据应该是居中的,即0.5的位置。 主要还是像素点网格化的偏差。 比如图片尺寸为2x2,那么就是有四个像素值,左上角的像素值为1,应该对应的是左上网格的中心,而不是左上网格的左上角点。