Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

[2021] It's Not Just Size That Matters: Small Language Models Are Also Few-Shot Learners #18

Open
JudePark96 opened this issue Jan 29, 2021 · 1 comment

Comments

@JudePark96
Copy link
Owner

논문 It's Not Just Size That Matters: Small Language Models Are Also Few-Shot Learners
저자 Timo Schick, Hinrich Schütze
링크 https://arxiv.org/abs/2009.07118
학회 arXiv

Contents

1. 초록은 뭐라고 말하고 있어 ?

2. 주요 기여점은 뭐야 ?

3. 이전의 접근과는 뭐가 다른 것 같아 ?

4. 어떤 걸 제안할 수 있을까 ?

5. 다음 논문은 무엇을 읽어야할까 ?

@JudePark96
Copy link
Owner Author

JudePark96 commented Jan 29, 2021

1. 초록은 뭐라고 말하고 있어?

GPT-3 와 같이 pre-trained language model 의 성능은 점점 더 좋아지고 있지만 크기 또한 exponential 하게 늘어나기 때문에 real world 에서 사용하기 힘들다는 단점이 있다. 본 논문에서는 textual inputs 을 task description 을 포함한 cloze question 으로 변환하고 gradient-based optimization 을 통한 few-shot learning 을 바탕으로 더 작은 파라미터 (BERT, RoBERTa, etc) 로도 GPT-3 와 유사한 성능의 신경망을 구축할 수 있음을 보여준다.

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Projects
None yet
Development

No branches or pull requests

1 participant