퀀티랩 - 퀀트투자 연구소
퀀티랩 - 퀀트투자 연구소
질문을 두 가지로 해석했습니다. 1) 키움증권 API로 데이터 생성 학습데이터/테스트데이터만 적절한 포멧으로 생성해주시면 RLTrader와 증권사 API(?)와는 어떠한 의존성은 없습니다. 2) 학습한 RLTrader 모델을 키움증권 시스템 트레이딩에 적용 RLTrader와 시스템 트레이딩...
보상을 받은 지점의 이전 지점들에 결정된 보상을 적용합니다. `표 3.1`의 `지점 4`에서 보상 1을 받았고 지점 1, 2, 3에서 매수를 했으므로 지점 1, 2, 3의 `매수누적보상`에 1씩 더해줍니다. `표 3.2`의...
 직전 학습에서 결정된 누적보상을 기준으로 행동을 결정합니다.
표 3.2의 7번 지점에서는 보유 주식이 없어서 매도할 수 없기 때문에 관망합니다.
@ChulgooKim predict 수를 줄일 수 있다면 좋겠지만 강화학습 특성상 좀 어려운 부분이 있네요... 혹시 좋은 개선안을 찾으시면 공유해주시면 감사하겠습니다!
@kyle-109 데이터의 shape가 달라져서 CNN 클래스의 get_network_head 함수를 적절히 수정해야 할 것 같습니다. kernel_size, pool_size, Conv2D의 출력 dimension 등을 수정해보면서 적정 값을 찾아야할 것 같습니다.
@ChulgooKim 맞네요! 제보 감사합니다. 수정하겠습니다 : )
@mue1972 https://github.com/quantylab/rltrader/blob/master/learners.py#L368 이 부분을 적당히 제한하면 될 것 같습니다. ```py if (epoch + 1) % 10 == 0: self.visualize(epoch_str, num_epoches, epsilon) ```
epsilon: 탐험 확률 expl: 탐험 횟수 episode 종료 조건은 따로 없고 주어진 데이터를 끝까지 수행한 경우 epoch가 종료됩니다. agent의 decide_action에서 탐험을 결정합니다.
https://github.com/quantylab/rltrader/blob/dev/predict.py 참고해 주세요.