peach-water
peach-water
同样的问题+1,学校用的是锐捷-4.97版本
感谢您的回复。 希望项目的代码能多写点注释,帮助分析整体结构,也可以更好的传给后面的学生。
我也想提这个建议,不过不太确定这个模型能否作为一键安装形式做出来。huggingface上的模型参数是需要安装transformers库来加载的。
你这个图不错啊,留个ID呗。
自动捡材料,捡狗粮的需求早有人提了 #85 。 1. 这种最大的问题是从锚点出发,随着路程增加误差会累积,导致不能完成自动化跑路线的任务。现在暂时没有能够修正误差的方法。 2. 关于录制脚本跑路线。先不说不同电脑鼠标移动速度设置不同,同一台电脑上录制的脚本能否成功运行也需要一点点运气。我尝试了按键精灵、Keymousego等脚本录制,也自己写过。感觉原神像是容易吞掉部分操作,尤其是鼠标移动事件,转向视角总是出现一点点的偏差。
> > 自动捡材料,捡狗粮的需求早有人提了 #85 。 > > > > 1. 这种最大的问题是从锚点出发,随着路程增加误差会累积,导致不能完成自动化跑路线的任务。现在暂时没有能够修正误差的方法。 > > 2. 关于录制脚本跑路线。先不说不同电脑鼠标移动速度设置不同,同一台电脑上录制的脚本能否成功运行也需要一点点运气。我尝试了按键精灵、Keymousego等脚本录制,也自己写过。感觉原神像是容易吞掉部分操作,尤其是鼠标移动事件,转向视角总是出现一点点的偏差。 > > 其实如果最后能输出为脚本,就能微调了,直接调试转向和移动,录制只是为了能够生成一个初始的脚本,然后要进行微调才能排除个人电脑的各种因素,理论上视角的转换可以不看鼠标的实践,而是看小地图上面的那个白色区域的转动来实现? > > 不知道能不能行 微调不太好做,小地图本身就精度不太够,对于细微的角度变化检测不出来;另外小地图上特征不明显,也不适合作为路径追踪的对象。 至于脚本什么的,都很好实现。
> 或者如果变成传送之后,视角先原地转圈,然后通过图像匹配,匹配传送点,然后让人物正对传送点,再根据设置的信息进行转向呢,这样是不是也可行? 这也没解决微调不精准的问题呀。再说,传送后视角都是固定的,为什么要先面对传送锚点呢。 另外,关于图像匹配检测,例如现在自动秘境的找树的效果,已经是足够独特的目标,有时候还是容易因为一些技能视角阻挡导致识别失败(现在是结束战斗后等一段事件开始找,这样解决问题)。等到路径上的图像匹配那就不好说会怎么样(虽然也许可以通过堆数据量解决)。 脚本效果不佳的问题本质上还是不能很好的跟踪自身的位置信息,还没想到有什么具备足够特征的对象来跟踪。
这个好耶,我一直有捡狗粮的路线想整
> 先入群吧 [863012276](http://qm.qq.com/cgi-bin/qm/qr?_wv=1027&k=YOyOxUzXKquJyUuO2z0W1Lrh4iX9ROme&authKey=tckwvC5AC4BuEAKOdxVPr8QsXR1AqwQuzIUiswo9JT%2FpnPniRCoyoEY6IGkljdAo&noverify=0&group_code=863012276) > > 我最近暂时没时间整理数据和打标(只能布置任务了 😂 原来有个炼丹群啊,才看到
活动热力图这个设计有意思。