Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

Discriminator 고도화 #31

Open
DongHwanJang opened this issue Feb 1, 2020 · 7 comments
Open

Discriminator 고도화 #31

DongHwanJang opened this issue Feb 1, 2020 · 7 comments

Comments

@DongHwanJang
Copy link
Owner

image
둘다 0을 찍을 수 있는 loss인데 (찍어야 하고)
D_real 조차도 수렴을 너무 못한다. 왜..?

@ThisIsIsaac
Copy link
Collaborator

ThisIsIsaac commented Feb 1, 2020

discriminator 의 아웃풋 로깅

@DongHwanJang
Copy link
Owner Author

Discriminator의 input으로 LAB->RGB를 넣어보는게 좋을 듯

@ThisIsIsaac
Copy link
Collaborator

아니면 discriminator 의 구조가 너무 약할 수 도 있음. generation 같은 경우엔 훨씬 못한걸 구분하기 쉽지만 colorization 은 L 이 주어지기 때문에. 실제로 video colorization 은 Self attention layer 를 사용했음.

@ThisIsIsaac ThisIsIsaac changed the title D_real & D_fake 는 왜 안떨어지는가 Discriminator 고도화 Feb 9, 2020
@DongHwanJang
Copy link
Owner Author

Discriminator의 input으로 LAB->RGB를 넣어보는게 좋을 듯

이는 실험했는데 잘 안돼서 폐기.
D의 구조를 Self-attention 쓰는 것으로 바꾸자

@ThisIsIsaac
Copy link
Collaborator

rgb vs lab discriminator

target only 와 같게 spade + decoder + reconstruction only 로만 학습했는데 기존 LAB discriminator (동일한 셋팅) 보다 안나옴

wandb 결과

@ThisIsIsaac
Copy link
Collaborator

Video colorization 처럼 SA layer 를 넣어서 discriminator 를 돌려주면 discriminator 가 더 잘할 수도 있음. 지금은 결과가 망해도 discriminator 가 구별을 못하니까 L GT 가 주어져서 기존 image synthesis 보다 discriminator 의 task 가 더 어려울 것 같다.

@ThisIsIsaac
Copy link
Collaborator

@DongHwanJang 지금 vid colorization 의 SA discriminator 구현 된게 있는데 그건 아웃풋타입이 multiscalediscriminator 랑 달라. 이걸 multiscale discriminator 처럼 맞춰줘야 할거야. 그리고 중간 피쳐 뽑는 기능도 추가하고.

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Projects
None yet
Development

No branches or pull requests

2 participants