-
Notifications
You must be signed in to change notification settings - Fork 17
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
RoBERTa Translation #12
base: main
Are you sure you want to change the base?
Conversation
learned by BERT have been shown to generalize well to downstream tasks, and when | ||
BERT was first released in 2018 it achieved state-of-the-art results on many NLP | ||
benchmark datasets. | ||
Bidirectional Encoder Representations from Transformers, [BERT][1]는 텍스트에서 의도적으로 숨겨진(masked) 부분을 예측하는 학습에 획기적인 self-supervised pretraining 기술이다. 결정적으로 BERT가 학습한 표현은 downstream tasks에 잘 일반화되는 것으로 나타났으며, BERT가 처음 출시된 2018년에 많은 NLP benchmark datasets에서 state-of-the-art 결과를 달성했다. |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
state-of-the-art
저는 다른 문서에서는 최신 성능이라고 해석했는 이부분에서는 최적
의 결과나 가장 성능 좋은
결과는 어떤지 제안해봅니다😀
|
||
```bash | ||
pip install regex requests hydra-core omegaconf | ||
``` | ||
|
||
|
||
### Example | ||
### 예시 | ||
|
||
##### Load RoBERTa |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
소제목도 같이 번역하면 좋을거 같습니다. RoBERTa 불러오기
는 어떨까요?
|
||
We require a few additional Python dependencies for preprocessing: | ||
전처리 과정을 위해 추가적인 Python 의존성이 필요합니다. |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
윗부분 문장들도 이부분처럼 전체 문장의 끝을 합니다
로 쓴다면 토치 튜토리얼 문서나 번역된 허브 문서와도 통일성이 있을거 같습니다.
라이선스 동의
변경해주시는 내용에 BSD 3항 라이선스가 적용됨을 동의해주셔야 합니다.
더 자세한 내용은 기여하기 문서를 참고해주세요.
동의하시면 아래
[ ]
를[x]
로 만들어주세요.관련 이슈 번호
이 Pull Request와 관련있는 이슈 번호를 적어주세요.
이슈 또는 PR 번호 앞에 #을 붙이시면 제목을 바로 확인하실 수 있습니다. (예. #999 )
PR 종류
이 PR에 해당되는 종류 앞의
[ ]
을[x]
로 변경해주세요.PR 설명
이 PR로 무엇이 달라지는지 대략적으로 알려주세요.
개인과제2로 RoBERTa 페이지의 일부를 번역하였습니다.