Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

advanced/torch-script-parallelism.rst 번역 #386

Merged
merged 2 commits into from
Dec 4, 2021

Conversation

Taeyoung96
Copy link
Contributor

라이선스 동의

변경해주시는 내용에 BSD 3항 라이선스가 적용됨을 동의해주셔야 합니다.

더 자세한 내용은 기여하기 문서를 참고해주세요.

동의하시면 아래 [ ][x]로 만들어주세요.

  • 기여하기 문서를 확인하였으며, 본 PR 내용에 BSD 3항 라이선스가 적용됨에 동의합니다.

관련 이슈 번호

이 Pull Request와 관련있는 이슈 번호를 적어주세요.

이슈 또는 PR 번호 앞에 #을 붙이시면 제목을 바로 확인하실 수 있습니다. (예. #999 )

PR 종류

이 PR에 해당되는 종류 앞의 [ ][x]로 변경해주세요.

  • 오탈자를 수정하거나 번역을 개선하는 기여
  • 번역되지 않은 튜토리얼을 번역하는 기여
  • 공식 튜토리얼 내용을 반영하는 기여
  • 위 종류에 포함되지 않는 기여

PR 설명

이 PR로 무엇이 달라지는지 대략적으로 알려주세요.

#194 에서 나온 comment들을 모두 update하고 좀 더 자연스럽게 의역을 해보았습니다.

Copy link
Contributor

@puhuk puhuk left a comment

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

고생하셨습니다.
리뷰 몇개 남깁니다:)

# Batch size (B)
# Hidden size/number of "channels" (C)
# RNN 용어에서는 우리가 관심 갖는 차원들을 아래와 같이 부릅니다:
# 시간 단계의 # (T)
Copy link
Contributor

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

아래 제안드립니다.
시간 단계의 # -> 단위시간의 갯수

# Forward layer - fork() so this can run in parallel to the backward
# layer

# Forward 계층 - fork() 이므로 이는 backward 계층과 병렬로 실행될 수 있습니다.
Copy link
Contributor

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

아래 제안드립니다.
‘Backward 계층과 병렬로 실행시키기 위해 forward layer를 fork()를 한다’

@lewha0
Copy link
Contributor

lewha0 commented Nov 30, 2021

외래어 표기법에 따라 method를 메소드가 아니라 메서드로 번역하면 어떨까 싶은데요, 저장소를 검색해 보니 현재는 혼용되고 있는 듯 합니다. 용어 통일에 대해 한 번 고민해보면 어떨지 제안드립니다. (여기에 남기는 게 좀 어색하지만..)

@hyoyoung
Copy link
Member

method는 TTA규정에서는 메소드, 외래어 표기법에서는 메서드로 되어있습니다
TTA규정을 기여자들이 친숙해해서 메소드로 우선 정해둔 상태인데,
나중에 개선할때 다시 투표를 해보고 정리를 할 수도 있습니다
https://github.com/9bow/PyTorch-tutorials-kr/blob/master/TRANSLATION_GUIDE.md

@lewha0
Copy link
Contributor

lewha0 commented Nov 30, 2021

아.. 제가 미처 규칙 확인을 못 했습니다. 댓글 달고 찾아보고 있었는데 어디에 있는지 헷갈렸네요. 확인 감사합니다!

@@ -25,37 +25,37 @@ A good way to demonstrate how these work is by way of an example:

@torch.jit.script
def example(x):
# Call `foo` using parallelism:
# First, we "fork" off a task. This task will run `foo` with argument `x`
# 병렬로 `foo` 를 호출합니다:
Copy link
Member

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

여기서 parallelism은 아래 문단의 normally는 비교되는 단어 선택인듯 합니다
아래에서는 일반적으로 호출한다고 되어있으니
여기서는 병렬적으로 호출한다고 변경하는게 어떨까요?

These constructs can be used to overlap the execution of statements within a
function (shown in the worked example section) or be composed with other language
constructs like loops:
이러한 구조는 함수 내에서 명령문 실행을 오버랩하거나
Copy link
Member

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

오버랩은 중첩으로 바꿔도 좋을듯합니다

code: we can also run the models contained in ``LSTMEnsemble`` in parallel with
each other. The way to do that is simple enough, this is how we should change
the ``forward`` method of ``LSTMEnsemble``:
당신은 이 코드에 더 많은 병렬화 기회가 있다는 것을 눈치챘을지도 모릅니다:
Copy link
Member

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

주어는 빠져도 좋을듯합니다

results : List[torch.Tensor] = []
for future in futures:
results.append(torch.jit.wait(future))

return torch.stack(results).sum(dim=0)

Or, if you value brevity, we can use list comprehensions:
또는, 만약 당신이 간결함을 중요하게 생각한다면 리스트 컴프리헨션(list comprehension)을 사용할 수 있습니다.
Copy link
Member

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

주어 생략

Like described in the intro, we've used loops to fork off tasks for each of the
models in our ensemble. We've then used another loop to wait for all of the
tasks to be completed. This provides even more overlap of computation.
인트로에서 설명했듯이, 우리는 루프를 사용해 앙상블의 각 모델들에 대한 작업을 나눴습니다.
Copy link
Member

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

인트로는 서두에서로 변경해도 좋을듯합니다

@Taeyoung96
Copy link
Contributor Author

Comment 주신 부분들을 모두 반영했습니다.
감사합니다! 😄

Copy link
Member

@hyoyoung hyoyoung left a comment

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

looks good to me

@hyoyoung hyoyoung merged commit 441e62c into PyTorchKorea:master Dec 4, 2021
Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
None yet
Projects
None yet
Development

Successfully merging this pull request may close these issues.

None yet

4 participants