dantmnf
dantmnf
之前测试过在 macOS 上是可以在终端内启动的。 打包 app bundle 的话大概要改一下 config 和 log 位置。
那么识别之后能用来干啥呢(
理智识别用的是土制简单 OCR,可以考虑替换成通用 OCR: https://github.com/ninthDevilHAUNSTER/ArknightsAutoHelper/blob/b5a3a89011de030632b6280f05ee7654b3987d07/imgreco/before_operation.py#L36-L40 通用 OCR 用法:https://github.com/ninthDevilHAUNSTER/ArknightsAutoHelper/blob/b5a3a89011de030632b6280f05ee7654b3987d07/imgreco/common.py#L98-L99 当前只有对话框识别和公开招募识别使用了通用 OCR,各种后端的优先顺序在 README 和配置里有说明。YAML 里字符串没有与其他数据类型产生歧义的时候可以省略引号。 适配外服可以参考 https://github.com/ninthDevilHAUNSTER/ArknightsAutoHelper/wiki/Porting-to-Another-Server ,目前也不打算在这个 repo 里支持外服,因为实在是没有精力去维护,可以考虑自己维护一个 fork。
我也想,但是代码生成器出来的都是阻塞请求( ~~或者是一个请求起一个新线程的迫真 async~~
目前的 workaround 是改分辨率 ~~只要你屏幕够长就不需要滑动了~~
目前程序只有国服资源,如果有兴趣适配外服可以参考 https://github.com/ninthDevilHAUNSTER/ArknightsAutoHelper/wiki/Porting-to-Another-Server 替换为外服资源,大部分功能替换带文字的图片后应该就可以使用。
~~首先你需要有这个材料(~~ 加工站的话,由于拖动惯性,各个图标在屏幕上的位置也不固定,实现下来跟直接在地图上识别是差不多的
另外还有一个问题就是 adb shell input 的线性拖动很容易检测(
我之前的想法是,记录所有关卡的相对坐标,然后取几个关卡(比如 4-1)的图标出来做 template matching 定位,根据定位到的关卡坐标计算目标关卡(比如 4-4)的坐标,如果算出来在屏幕外面就拖动屏幕之后继续定位,直到算出来的位置在屏幕内
issue 创建时的代码已经没有 `ensure_alive` 标识符,建议更新后再尝试。