Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

RoBERTa Translation #12

Open
wants to merge 1 commit into
base: main
Choose a base branch
from
Open

Conversation

euroversedev
Copy link

@euroversedev euroversedev commented Jul 24, 2022

라이선스 동의

변경해주시는 내용에 BSD 3항 라이선스가 적용됨을 동의해주셔야 합니다.

더 자세한 내용은 기여하기 문서를 참고해주세요.

동의하시면 아래 [ ][x]로 만들어주세요.

  • 기여하기 문서를 확인하였으며, 본 PR 내용에 BSD 3항 라이선스가 적용됨에 동의합니다.

관련 이슈 번호

이 Pull Request와 관련있는 이슈 번호를 적어주세요.

이슈 또는 PR 번호 앞에 #을 붙이시면 제목을 바로 확인하실 수 있습니다. (예. #999 )

  • 이슈 번호: #(숫자)

PR 종류

이 PR에 해당되는 종류 앞의 [ ][x]로 변경해주세요.

  • 오탈자를 수정하거나 번역을 개선하는 기여
  • 번역되지 않은 모델 소개를 번역하는 기여
  • 공식 허브의 내용을 반영하는 기여
  • 위 종류에 포함되지 않는 기여

PR 설명

이 PR로 무엇이 달라지는지 대략적으로 알려주세요.
개인과제2로 RoBERTa 페이지의 일부를 번역하였습니다.

learned by BERT have been shown to generalize well to downstream tasks, and when
BERT was first released in 2018 it achieved state-of-the-art results on many NLP
benchmark datasets.
Bidirectional Encoder Representations from Transformers, [BERT][1]는 텍스트에서 의도적으로 숨겨진(masked) 부분을 예측하는 학습에 획기적인 self-supervised pretraining 기술이다. 결정적으로 BERT가 학습한 표현은 downstream tasks에 잘 일반화되는 것으로 나타났으며, BERT가 처음 출시된 2018년에 많은 NLP benchmark datasets에서 state-of-the-art 결과를 달성했다.

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

state-of-the-art 저는 다른 문서에서는 최신 성능이라고 해석했는 이부분에서는 최적의 결과나 가장 성능 좋은 결과는 어떤지 제안해봅니다😀


```bash
pip install regex requests hydra-core omegaconf
```


### Example
### 예시

##### Load RoBERTa

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

소제목도 같이 번역하면 좋을거 같습니다. RoBERTa 불러오기는 어떨까요?


We require a few additional Python dependencies for preprocessing:
전처리 과정을 위해 추가적인 Python 의존성이 필요합니다.

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

윗부분 문장들도 이부분처럼 전체 문장의 끝을 합니다로 쓴다면 토치 튜토리얼 문서나 번역된 허브 문서와도 통일성이 있을거 같습니다.

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
None yet
Projects
None yet
Development

Successfully merging this pull request may close these issues.

2 participants