-
Notifications
You must be signed in to change notification settings - Fork 0
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
Discriminator 고도화 #31
Comments
discriminator 의 아웃풋 로깅 |
Discriminator의 input으로 LAB->RGB를 넣어보는게 좋을 듯 |
아니면 discriminator 의 구조가 너무 약할 수 도 있음. generation 같은 경우엔 훨씬 못한걸 구분하기 쉽지만 colorization 은 L 이 주어지기 때문에. 실제로 video colorization 은 Self attention layer 를 사용했음. |
이는 실험했는데 잘 안돼서 폐기. |
rgb vs lab discriminatortarget only 와 같게 spade + decoder + reconstruction only 로만 학습했는데 기존 LAB discriminator (동일한 셋팅) 보다 안나옴 |
Video colorization 처럼 SA layer 를 넣어서 discriminator 를 돌려주면 discriminator 가 더 잘할 수도 있음. 지금은 결과가 망해도 discriminator 가 구별을 못하니까 L GT 가 주어져서 기존 image synthesis 보다 discriminator 의 task 가 더 어려울 것 같다. |
@DongHwanJang 지금 vid colorization 의 SA discriminator 구현 된게 있는데 그건 아웃풋타입이 multiscalediscriminator 랑 달라. 이걸 multiscale discriminator 처럼 맞춰줘야 할거야. 그리고 중간 피쳐 뽑는 기능도 추가하고. |
둘다 0을 찍을 수 있는 loss인데 (찍어야 하고)
D_real 조차도 수렴을 너무 못한다. 왜..?
The text was updated successfully, but these errors were encountered: