퀀티랩 - 퀀트투자 연구소
퀀티랩 - 퀀트투자 연구소
@JungsooCho tanh는 정규화를 위해 사용한 것이 맞습니다. 다만 tanh의 입력값은 -3~3 정도가 적당하기에 자질의 특성에 따라 적절히 스케일을 조정한 것입니다.
1. `shared_network`는 가치신경망과 정책신경망을 모두 사용하는 AC, A2C 등에서 두 신경망이 공유하는 앞단 부분을 의미합니다. 2. input shape는 Conv2D 사용할 경우 (1, num_steps, input_dim), Conv1D 사용할 경우 (num_steps, input_dim)로 정했습니다....
IDE의 제약은 없는 것으로 알고있습니다. 저는 VSCode를 쓰고 있기는 합니다.
@hccho2 네 맞습니다. 1-step LSTM은 tanh DNN과 거의 같다고 볼 수 있겠습니다. 인지하고있고 개정판에서 개선될 이슈입니다. https://github.com/quantylab/rltrader/blob/dev/main.py 이 dev 브랜치에서 rltrader를 구조적으로 개편 중입니다. [QL, PG, AC, A2C, A3C] x...
@jsi4097 답변이 늦었네요;; 학습한 모델을 불러와서 prediction 할 feature vector를 입력으로 넣어주면 될텐데 이것도 모듈로 만들면 다른 분들도 편하게 사용하실 수 있겠네요. TODO TASK로 검토하겠습니다. 혹시 직접 개발하신게 있으시면 Pull...
delayed_reward_threshold는 모델 학습을 위한 수익률 임계값으로 보시면 됩니다. 0.2는 20% 수익이 발생했을 때 이전 행동들을 학습하겠다는 것입니다. 의미있는 수익률이 발생하려면 종목에 따라서 초기 자본금, min_trading_unit, max_trading_unit 등을 적절히 정해야 합니다....
@ggokka 포털 사이트라고는 해놓았지만 "웹 크롤링"이 더 정확한 표현이겠습니다. KRX도 크롤링할 수 있는 사이트 중 하나가 되겠네요.
카페에도 비슷한 질문이 있어서 그 답변을 올립니다. https://cafe.naver.com/quantylab/18 ``` 안녕하세요. RLTrader를 시스템트레이딩에 적용하려면 RLTrader의 입력인 환경, 에이전트 상태 자질벡터를 실시간(혹은 짧은 주기)로 생성하고 RLTrader의 prediction 결과를 받아와야 합니다. 다만 여기서...
1. 학습시에도 관망만 하지는 않았는지 확인해볼 필요가 있습니다. (학습이 제대로 되지 않아 매도만 하는 방향으로 된다면 보유 주식이 없는 상황에서 매도만하므로 관망만 하게 됩니다.) 2. 초판에서는 PG(...에 가까운) 방식으로 강화학습을...
@jaylee4274 테스트 하실때 사용하신 커맨드(옵션들)를 알려주시면 감사하겠습니다.