Tacotron2-Wavenet-Korean-TTS
Tacotron2-Wavenet-Korean-TTS copied to clipboard
wavenet-_batch_size 문의 드립니다.
안녕하세요? 질문 드립니다.
지금 이 프로젝트(Tacotron-Wavenet-Korean-TTS)와 Tacotron-Wavenet-Vocoder의 차이점은 무엇인가요?
그리고 이 프로젝트 hparams.py 에는 wavenet_batch_size가 2, Tacotron-Wavenet-Vocoder의 hparams.py의 wavenet_batch_size는 8로 설정되어 있습니다. 이 값은 어떤 값으로 설정해도 상관 없는 건가요?
제 컴퓨터에서는 이 값을 1로 설정해야 돌아갑니다.
2, 4, 8 모두 넣어봤는데 이런 에러가 뜨면서 돌아가지 않습니다.
InvalidArgumentError(see above for traceback): Input to reshape is a tensor with 32 values, but the requested shape has 64 [[node wavenet / Reshape(defined at / home / wej / AI / wej / 190708_Tacotron2_LJ + SCR + ETRI_DB / wavenet / model.py: 238)]] [[node wavenet / loss / Mean(defined at / home / wej / AI / wej / 190708_Tacotron2_LJ + SCR + ETRI_DB / wavenet / model.py: 318)]] NoneType: None
gc_channels, sample size 모두 변경해 보았으나 이 에러는 해결되지 않습니다.
원래 세 명의 영어 여성 화자로 tacotron2 훈련 시킨 multi-speaker의 mel_spectrogram(.npy) 파일은 모두 추출됩니다.
이 글 확인하시면 꼭 답변 주시기 바랍니다.
감사합니다.
두 프로젝트의 차이는 tacotron1, tacotron2입니다.
batch_size는 메모리가 허용하는한 변경가능합니다. 에러 메시지만 봐서는, 원인 파악이 잘 안되네요(data feeding쪽 문제 같긴 합니다만).