New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
TIP. 학습용 데이터가 1시간 이하일때 학습성능을 끌어올리는법 #23
Comments
그러면 저렇게하면 파일에 있는 ds workers 값은 무시되는건가요? |
CUDA설정이 되어있지 않은것 같습니다 저도 이 옵션 켜고 돌리고 있는데 1Epoch가 오래걸리는 문제가 있지만 48시간에 360000스텝정도 진행되는것으로 보아 GPU가 일을 안 하는 듯 합니다. 그리고 ds_worker는 CPU작업시 쓰는 코어 갯수인데 MEL스펙트럼을 만들거나 (이건 푸리에 변환연산이라 GPU단독이 불가능함) 리샘플링작업을 할때 몇개의 스레드로 할건가를 결정합니다. CPU학습때는 크게 관계가 없는것 같습니다 |
공식문서에는 다음처럼 나와있네요
endless_ds가 뭐의 줄임말인지는 모르겠는데 말씀하신대로 1000 epoch(공식문서 기준)을 하나의 epoch으로 처리하는거 같네요. 혹시 비교 해보셨다면 체감이 되시나요? |
저 같은 경우는 솔직히 데이터가 준수하게 준비된 상태는 아니라서 드라마틱하게 좋아지지는 않은것같으나 false로 했을때보단 그나마 괜찮아진듯합니다. 별개의 주제지만 다른 pretraining model들을 발견해서 config파일내의 |
전 pe_ckpt를 다르게 이해했습니다 pretrained의 경우는 load에 pretrained모델을 넣고 돌리니까 파리미터를 미리 준비하고 학습을 하더군요. 진짜로 그런건지는 알 수가 없습니다만...(아무리봐도 파라미터 불러온뒤 이걸 적용하는 코드가 보이지 않음) pretrained모델은 LIFE-DIFF-SVC-AI V1을 적용중입니다. (44.1kHz보코더가 GPU메모리 문제로 쓸수 없기 때문) 저도 확인 되는대로 이슈에 올려보겠습니다 |
@MoorDev 님 말씀이 맞는 거 같습니다.
이렇게 되어있네요. 좀 더 찾아보니 F0가 fundamental frequency라고 소리쪽에서 사용하는 용어인것 같습니다. 만약 use_pe가 true이면 입력 오디오의 F0값이 아닌 특정 알고리즘이나 모델을 이용해서 F0를 얻는 것 같네요 |
|
따로 더 건든건 없었습니다. 아마 기본설정 그대로 하면 Transfer Learning개념으로 되는게 아닐까 추측하고 있습니다 |
본 이슈는 README에 추가했습니다. |
training/config.yaml
혹은training/config_nsf.yaml
에endless_ds
값을true
로 수정하면 한번에 2000회씩 학습하여 학습성능을 극대화하며 학습시간을 단축시킬 수 있습니다.아래 예제
total_loss
값을 주의깊게 확인해보세요.EXAMPLE )
The text was updated successfully, but these errors were encountered: