Kensuke Matsuzaki
Kensuke Matsuzaki
When --thread N is specified, Rn uses N search threads + a GPU management thread. Without GPU, CNTK/MKL uses all CPU cores to evaluate DCNN.
It seems possible to specify `numCPUThreads`. I'm not sure what is better for no-gpu mode. https://github.com/Microsoft/CNTK/blob/dd1bc6bdb5ab6122375a01b45e046225ace21451/Source/EvalDll/CNTKEval.cpp#L37
On my 4 core Windows 10, CPU usage is near 27% with `--thread 1`. What happen?
I think Human Evaluation couldn't emulate adversarial AI. I could beat KataGo with friendlyPassOk=false Tromp-Taylor rule by following style. - Make small area alive - Keep self stones in KataGo's...
> it will be prevented, and play some move adjacent to a dead stone instead. This logic works only if live stones is "strictly pass-alive", but there are few pass-alive...
私のミラーはbfgでの履歴書き換えで継続的にミラー更新するスクリプト書いてます。 https://gist.github.com/zakki/cd9ac2b41bbe4ec96015717d5b9078e1
学習側は2.6.0では未対応の処理があってワークアラウンドが必要でした。 https://github.com/pytorch/pytorch/issues/142397
PyTorchのmainブランチでは修正されていますが、その後リリースされた 2.7.0 や 2.7.1-rc1 は別ブランチでの開発らしく反映されていません。 マージはPyTorch 2.8以降がリリースされてからのほうが良いかもしれません。 ちなみに修正はこれです。 https://discuss.pytorch.org/t/gradscaler-typeerror-cannot-convert-a-mps-tensor-to-float64-dtype-as-the-mps-framework-doesnt-support-float64-please-use-float32-instead/213206
"CoreMLExecutionProvider" でMacの人も高速化するかもしれません。 https://onnxruntime.ai/docs/execution-providers/CoreML-ExecutionProvider.html
Thanks! I’ll submit a PR to the VIAL repo. Please let me know if there’s anything you’d like me to change or verify.