-
Notifications
You must be signed in to change notification settings - Fork 41
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
[20220515] Weekly AI ArXiv 만담 - 51회차 #51
Comments
Arxiv
|
News
|
Better plain ViT baselines for ImageNet-1k Arxiv: https://arxiv.org/pdf/2205.01580.pdf ViT 학습이 기존 통념보다 잘 된다고 합니다. 기존 CNN에 사용하던 테크닉 없이 단순한 학습 방법을 적용했을 때 오히려 ViT 모델이 성능이 더 좋다는 구글의 연구 결과입니다. ViT 모델이 문제없이 ImageNet top-1 80%를 300 epoch 만에 찍는 것을 보여줍니다. 결론은 너무 어렵게 생각하지 말자는 것... CoCa: Contrastive Captioners are Image-Text Foundation Models ImageNet 새로운 SOTA가 등장했습니다. 구글에서 Image to Text 모델을 학습한 결과 모든 라벨을 text 형태로 촐력하게 하여 zero-shot accuracy 86.3%와 fine-tuning 결과 91.0%라는 SOTA를 세웠습니다. 이번 주는 너무 새로 나온 내용이 많아서 Yannic Kilcher의 YouTube 공유해드립니다. ML News Part 1: https://www.youtube.com/watch?v=pwSnC8jlh50 |
Tensorboard / W&B 대신 사용할 수 있는 AimStack 공유해드립니다. https://aimstack.io/ |
News
ArXiv
Unifying Language Learning Paradigms
A Generalist Agent
눈여겨볼 논문들
The text was updated successfully, but these errors were encountered: