tensorflow-ml-nlp-tf2
tensorflow-ml-nlp-tf2 copied to clipboard
텐서플로2와 머신러닝으로 시작하는 자연어처리 (로지스틱회귀부터 BERT와 GPT3까지) 실습자료
9번 셀에서 훈련 데이터를 전처리할 때 원래대로 하면 다음과 같은 오류가 발생했습니다. Truncation was not explicitely activated but `max_length` is provided a specific value, please use `truncation=True` to explicitely truncate...
제 환경은 ubuntu 20.04에 tensorflow 2.6.0을 쓰고 있는데 책에서는 2.2.0을 써서 cuda 버전이 맞지 않아 혹여나 2.6.0 버전을 쓰고 싶으신 분들을 위해 환경을 적어놓습니다. [requirements.txt](https://github.com/NLP-kr/tensorflow-ml-nlp-tf2/files/13884318/requirements.txt)
wordcloud 설치 시 requirements 그대로 설치하시면 제대로 작동하지 않습니다. 정확히 어떤 버전들이 작동하는지는 테스트해보지 않았지만 제 경우 pip install wordcloud==1.8.0 으로 정상작동했습니다. 참고하세요.
안녕하세요... "텐서플로 2와 머신러닝으로 시작하는 자연어처리" 책을 보다가 이렇게 질문을 드리게 되었습니다. 양해 바랍니다.. seq2seq 로 만든 챗봇 예제(306 ~ 317 page) 관련 2가지 질문이 있습니다. 1. 예제에서는 디코더 클래스의...
안녕하세요.. 책의 282 page 상단의 코드에 morph_tokenized_sentences = [okt.morphs(s.replace(' ', '')) for s in sentences] 위와 같이 형태소 분리가 되어 있습니다. 그런데, 저 코드의 경우 형태소 분리의 결과는 ['3', '박',...
안녕하세요, 먼저 좋은 책을 발간해주셔서 감사합니다. 공부하다 입력층 뉴런개수에 대하여 질문이 들어서 남깁니다. (RNN TextClassification Chapter) https://github.com/NLP-kr/tensorflow-ml-nlp-tf2/blob/master/4.TEXT_CLASSIFICATION/4.1.6%20RNN%20Classification.ipynb 1. 임베딩의 디멘션은 100으로 설정되어 있습니다. 2. LSTM 층에는 인풋레이어에는 150이 입력 뉴런개수로...
책의 309~310 페이지에서 BahdanauAttention 클래스를 구현할때, values를 인코더 순환 신경망의 결괏값으로 하고 있습니다. 이것과 관련하여, 309페이지의 주석 논문(https://arxiv.org/pdf/1409.0473.pdf)에는 h_j 를 입력 문장의 annotation 이라고 하고 있습니다. 논문의 annotation 을 인코더...