Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

[20210523] Weekly AI ArXiv 만담 #10

Closed
jungwoo-ha opened this issue May 9, 2021 · 3 comments
Closed

[20210523] Weekly AI ArXiv 만담 #10

jungwoo-ha opened this issue May 9, 2021 · 3 comments

Comments

@jungwoo-ha
Copy link
Owner

jungwoo-ha commented May 9, 2021

@jungwoo-ha jungwoo-ha changed the title [20210516] Weekly ArXiv 만담 [20210523] Weekly AI ArXiv 만담 --> 논문 작성 관계상 이번주는 쉽니다. May 15, 2021
@jungwoo-ha jungwoo-ha changed the title [20210523] Weekly AI ArXiv 만담 --> 논문 작성 관계상 이번주는 쉽니다. [20210523] Weekly AI ArXiv 만담 May 23, 2021
@qqueing
Copy link

qqueing commented May 23, 2021

FNet: Mixing Tokens with Fourier Transforms
구글 리서치에서 내놓은 논문으로 트랜스포머 구조중에 MHA 레이어를 FFT로 바꿔서 실험을 합니다. 일종의 잘 설계된 fixed linear layer로 생각해서 linear layer와 비교를 주로 합니다. 제안하는 모델은 성능에서 약간 손해를 보지만 효율(더 긴 렝쓰 처리, 더 큰 배치사이즈, 트레이닝 속도) 등에 큰 장점이 있습니다.

Attention-based Neural Beamforming Layers for Multi-channel Speech Recognition
아마존의 빔포머 논문입니다. 빔포밍은 다들 관심이 없으실 것 같고 재미있는 부분은 2D conv-attention이라는 모듈입니다, 어텐션을 2개를 병렬로 구성해서 하나는 타임축, 하나는 프리퀀시 축으로 어텐션을 계산을 해서모으네요. 성능 개선폭도 좋은 것 같습니다 다른 스피치 실험에서도 비슷하게 전개가 될 수 있을 것 같다는 생각을 했습니다.

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
None yet
Projects
None yet
Development

No branches or pull requests

4 participants