퀀티랩 - 퀀트투자 연구소

Results 85 comments of 퀀티랩 - 퀀트투자 연구소

@syssjh tensorflow 버전을 알려주시면 이슈 해결에 도움이 될 것 같습니다. ```py import tensorflow; tensorflow.__version__ ```

@ghdrl95 질문 주신 것처럼 RLTrader에서의 Policy Gradient는 actor-critic 방식은 아닙니다. actor-critic은 value approximation과 policy approximation을 혼합한 방식으로 알고 있습니다. 책에서 다룬 Policy Gradient는 policy approximation만 수행합니다. RLTrader를 actor-critic 방식으로 수정해...

@kdsull 일률적 매매 결정을 하지 않으려면 우선 관망(Hold) 행동을 추가해 주는 것이 좋을 것 같습니다. 행동을 결정할 때 특정 조건에 만족할 경우에만 매수/매도를 결정하고 그 외의 경우 관망으로 행동을 취하도록...

@whatwant 수정하겠습니다. 제보 감사합니다.

@yoelsquare 출판사인 위키북스에서 이북을 취급하지 않아서 이북으로는 출간할 예정이 없네요;; 대신 블로그에 대부분의 내용을 올릴 수는 있습니다. http://blog.quantylab.com/pages/rltrader.html

다음처럼 pandas의 to_csv() 메소드를 사용하면 되겠습니다. ```py df = creon.creon_7400_주식차트조회('035420', 20150101, 20171231) df.to_csv('035420_20150101_20171231.csv') ``` ref. https://pandas.pydata.org/docs/reference/api/pandas.DataFrame.to_csv.html

@gandol2 제보 감사합니다. 2판을 준비 중이니 이때 수정 반영하겠습니다.

@kyle-109 네 TF2를 사용하지만 속도 저하의 원인인 Eager Execution을 비활성화하여 TF1과 같은 방식으로 작동합니다.

@ssc4001 https://repo.anaconda.com/archive/ 여기서 사용하시는 OS에 맞게 다운로드해서 설치하시면 되겠습니다.

@hccho2 sigmoid로도 확률을 예측할 수는 있습니다. 다만 지적하신대로 이론과 구현이 안맞는 부분은 있습니다. 개정판에서는 이론을 최대한 지키도록 구현을 수정했습니다. DQN, PG, AC, A2C, A3C를 각각 적용해 볼수도 있게 준비 중입니다....