Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

Domain-Adversarial Training of Neural Networks #31

Open
chullhwan-song opened this issue Jul 31, 2018 · 1 comment
Open

Domain-Adversarial Training of Neural Networks #31

chullhwan-song opened this issue Jul 31, 2018 · 1 comment

Comments

@chullhwan-song
Copy link
Owner

chullhwan-song commented Jul 31, 2018

https://arxiv.org/abs/1505.07818
http://jaejunyoo.blogspot.com/2017/01/domain-adversarial-training-of-neural.html
많이 어려워 이 동영상을 많이 참고 : https://www.youtube.com/watch?v=n2J7giHrS-Y

@chullhwan-song
Copy link
Owner Author

why

  • 학습셋(=Source Domain)와 테스셋(=Target Domain)
    • 당연하지만, Source Domain은 라벨이 존재
    • Target Domain 이 존재하지 않음.
  • Source Domain과 Target Domain간의 Distribution이 다를때 문제> 즉, 실제 학습은 Distribution이 다른 Source Domain으로하고 실제 Target Domain을 prediction하려고 한다면 문제가 발생한다.
  • 이런한 문제에 대한 예는
    image
  • 이러한 문제를 해결하려는 것을 Domain Adaptation
    image
  • 본 연구에서는 이러한 문제를 해결하기 위해 GAN의 개념을 차용한 Domain-Adversarial Training 기법을 처음 도입
    • 기존 연구
      1. re-weighting하여 Source Domain 과 Target Domain 사이의 bias를 맞춰주자.
      2. feature representation > embedding ? <- 이거와 유사?
      3. iterative methods...?
  • Domain Adaptation 예
    image
    • 전자분야에서 학습시킨 모델이 게임분야에 적용하기를 원함.

DANN(Domain-Adversarial Training of Neural Networks)

  • 본문은 Binary Classification으로 한정
    image
  • 위의 그림처럼 3가지로 구성
    • Feature Extractor , 이는 아래 공통
    • Label predictor : 파란색은 일반적인 Image Classification 과정
    • Domain Classifier : Source Domain vs Target Domain 의 분류기
      • 중요한 개념은 forward가 아니라, back-propagation 과정
        • 즉, 실제 domain분류기는 자체는 잘 분류해야하는것이 원칙이지만, 실제적으로 Source Domain vs Target Domain의 차이를 없애려면 분류가 잘 못해야하는것이 중요하다.
          * 따라서, 위의 그림에서 이역할을 하는것이 GRL(gradient reversal layer)
          • 이는 forward과정에서는 그냥 pass
          • back-propagation에서 gradient의 reverse 즉, -1를 곱해서 학습시키도록하여, 두 Domain간의 차이를 없애도록한다. (즉, 여기서는 분류를 잘 못하도록한다.)
            • 동시에, Label predictor는 잘 되게하는것이 주요 contribution
        • 실제 논문의 그림은
          image

DANN Theory - 완벽히 이해못했음. 이해가면 덧붙히겟음 - 어려움.

image

  • image target domain
  • image source domain
  • 그차이를 빨간색 사각형 image 으로 나타낼수 있는데. 이를 total variation으로 나타낼수 있다. (밑의 식에서 노락색 부분이)
    • total variation
      image
  • 녹색은 그냥 상수 = 라벨관련 function { 0, 1} 실질적으로 그 차이가 (바라는 차이)는 거의 없을거라 예측하여 0으로 설정
  • So, 그래서 다음과 같이 정의 가능
    image
    • 실제적으로, finite distribution을 계산해야하기 때문에 위의 부분을 계산할수 없고, 모두 경우 알아야할 필요도 없다.
    • NN에서 나타낼수 있는 것만 보자.
      *이것은 이미 증명되었다. 수학자에 의해서 (= 어렵다)
      image
      image
      image
    • 람다는 주어진 값? > neural net ??에서
  • 결과적으로,
    image
    image
  • 정리하자면,
    image
    • Adversarial
      image
  • 수식에 대해 더 알고싶다면, https://www.youtube.com/watch?v=n2J7giHrS-Y

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Projects
None yet
Development

No branches or pull requests

1 participant