huangrunheng
huangrunheng
跑了一次 ``` INFO 2023-10-29 19:32:05.777 │ [Screen_size] 1280x720 INFO 2023-10-29 19:32:05.956 │ Click (1211, 618) @ START -------------------- 截图速度 0.013711929321289062 INFO 2023-10-29 19:32:06.146 │ roi_front size changed to 48x203 []...
检测久是破烂的笔记本,截图快是用了window api来截图
训练出模型的时候有这些数据的吗,  我看着不是很高的样子。上面的测试数据并不够准确。用onnxruntime 同之前的pytorch有啥子区别?
你有知道截图出来的数据就是 `self.device.image` 的三通道是 RGB 吗,因为Alas就是这样的当时我也被坑了很久,然后代码里面 ``` # Convert the image color space from BGR to RGB img = cv2.cvtColor(self.img, cv2.COLOR_BGR2RGB) ``` 我怀疑又转了一次
咋关掉了呀
是的,需要非常多的数据集,不过可以发动广大的群友。
完全可以呀
https://github.com/runhey/OnmyojiAutoScript/pull/132。 这个任务最核心的部分,还要考虑到假设冰冻的话,怎么给泛化识别。包括说其他的减速、冰冻、快撒豆、这些。
很好的建议
你的描述并不清晰,我理解为两部分,一是探索唤起突破,二是突破唤起探索。无论如何这都直接绕过了本身的调度系统,这并不是很合适的操作。