Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

[20211128] Weekly AI ArXiv 만담 #31

Closed
jungwoo-ha opened this issue Nov 27, 2021 · 4 comments
Closed

[20211128] Weekly AI ArXiv 만담 #31

jungwoo-ha opened this issue Nov 27, 2021 · 4 comments

Comments

@jungwoo-ha
Copy link
Owner

jungwoo-ha commented Nov 27, 2021

image

@ghlee3401
Copy link

ghlee3401 commented Nov 28, 2021

  • ArXiv

    • One-shot Voice Conversion for Style Transfer based on Speaker Adaptation
      • 샘플 URL : https://kerwinchao.github.io/Oneshotvc.github.io/
      • one-shot VC 를 제안 : 하나의 타겟 utterance만을 이용하여 타겟 화자의 목소리를 만드는 task
      • recognition-synthesis system (4개의 주요 모듈로 이루어져 있음) - Fig. 1.
        1. content module : ASR로부터 추출된 bottleneck feature를 입력으로 speaker normalization[16번논문]을 수행하여 output은 speaker에 독립적인 contents가 나옴
        2. speaker module : reference encoder와 classifier를 이용하여 target speaker의 mel-spectrogram으로부터 speaker representation을 추출
        3. prosody module : log f0, vuv, energy와 같은 external feature와 bottleneck feature를 이용한 explicit & implicit modeling을 하여 speaker에 독립적인 prosody representation을 추출
        4. conversion module : 각 모듈의 output을 input으로 받아 mel-spectrogram을 예측 (over-fitting 문제를 방지하기 위하여 weight regularization을 사용)
      • 3번의 training step
        1. any-to-one VC method를 이용하여 content module 학습
        2. large dataset을 이용하여 2가 적혀 있는 모듈 학습 (이 때 target speaker audio는 source audio의 동일 화자 랜덤 추출)
        3. target speaker 1개의 발화만을 이용하여 fine-tuning
      • 영어여서 확실한 판단은 어렵지만 target speaker의 목소리로 말하고 발음도 준수

    One-shot Voice Conversion for Style Transfer based on Speaker Adaptation1

    One-shot Voice Conversion for Style Transfer based on Speaker Adaptation2

    One-shot Voice Conversion for Style Transfer based on Speaker Adaptation3

    • Improved Prosodic Clustering for Multispeaker and Speaker-independent Phoneme-level Prosody Control
      • 샘플 URL : https://innoetics.github.io/publications/multispeaker-prosody-control/index.html
      • TTS 에서 F0와 duration의 phoneme-level prosody control을 위한 prosodic clustering을 제안
      • Training set에 다양한 f0와 duration의 값이 들어있지 않으면 unseen에 대해서 adaptation 시 문제 발생
      • phoneme-lelvel에서 f0와 duration에 대한 다양한 data augmentation을 수행하고 클러스터링을 함
      • f0의 경우 speaker variation을 줄이기 위하여 normalization을 취한 후 클러스터링 수행
      • duration의 경우 K-Means 알고리즘이 아니라 duration에 해당하는 샘플 수가 같은 것끼리 묶음
      • 결과적으로 few-shot adaptation 시 학습이 더 잘 됨
      • 샘플 페이지를 보면 데이터 augmentation 방법이 다양한 것이 눈에 띔
      • 너무 과하게 shift한 값들은 사용하는게 맞을지는 의문

    Improved Prosodic Clustering for Multispeaker and Speaker-independent Phoneme-level Prosody Control1

    Improved Prosodic Clustering for Multispeaker and Speaker-independent Phoneme-level Prosody Control2

@kimyoungdo0122
Copy link

kimyoungdo0122 commented Nov 28, 2021

  • News
    • DEVIEW 2021과 HyperCLOVA(다시보기는 하정우 소장님 글로!)

      • 인상깊었던 부분은?
        image
        image
      • HyperCLOVA는 단순히 좋은 PLM이 아니라 연구와 개발, 서비스, 비즈니스 등 모든 요소를 아우르는 Lifecycle의 핵심적인 마중물
      • DEVIEW 챙겨보던 지인은 HyperCLOVA 중심의 DEVIEW에 아쉬움을 내비치기도...
      • Large-scale AI를 사내에 구축할지 말지 고민하시는 분들께 좋은 행사였을 것 같습니다
      • 조직 관점에서 Large-scale 모델의 장점이 뭐가 있을까?
        • 하이퍼클로바를 중심으로 AI 연구 및 개발 프로세스를 통합or개선할 수 있지 않을까
        • ai 개발이 은근히 연구자or개발자 개인의 노하우에 영향을 많이 받을텐데 휴리스틱한 점도 개선이 될지?
        • hyperclova fine tuning하는 방법을 통해 ai 개발의 한계비용을 점차 낮출 수 있을까(손익분기점이 언제인지는 모르겠지만)
        • 하이퍼클로바를 서비스에 사용하려는 시도를 계속 하면서 잘 작동하지 않거나 개선할 수 있는 문제가 계속 나타날텐데, 새로운 연구 방향이나 주제가 도출되고 새로운 task, benchmark, metric, dataset 등을 제시하는 practical한 연구에 큰 도움이 될 듯!
    • OpenAI’s API Now Available with No Waitlist

    • 모두콘 2021이 12월 4일에 진행됩니다! 많은 관심 부탁드려요~~!!

@qqueing
Copy link

qqueing commented Nov 28, 2021

@hollobit
Copy link

유네스코 인공지능 윤리 권고 채택

https://unesdoc.unesco.org/ark:/48223/pf0000379920.page=14
https://kaiea.org/research/?idx=8994590&bmode=view
https://zdnet.co.kr/view/?no=20211124105459

  • 유네스코 193개 회원국이 인공지능 윤리에 관한 첫 번째 글로벌 협약을 채택
  • 141개 조항의 가치와 원칙

정부가 만든 'AI 윤리원칙 자율점검표' 실효성 놓고 의견 분분

http://it.chosun.com/site/data/html_dir/2021/11/26/2021112601857.html
http://www.aitimes.com/news/articleView.html?idxno=141704

  • AI 윤리 자율점검표 초안에서는 작년 12월 과기정통부가 마련한 AI 윤리기준 내 10대 핵심 요건에 해당하는 체크리스트 문항 47개를 제시
  • 하지만 자율점검표의 실효성을 둘러싼 업계의 반응은 나뉜다. 실무에서 활용할 수 있는 구체적인 지침이 필요하다는 의견이 있지만, 자율적 지침이 아닌 규제적 성격을 갖게 될까 우려하는 목소리도 있다. 또 자율적 지침이기에 기업들이 적극 활용하지 않을 것이란 우려도 있다
    141704_144436_3054
    141704_144437_313

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
None yet
Projects
None yet
Development

No branches or pull requests

5 participants