-
Notifications
You must be signed in to change notification settings - Fork 284
knowlwdge_distillation_1차번역 #1052
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
base: master
Are you sure you want to change the base?
Conversation
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
번역 자체는 괜찮으나
용어집에 없는 용어가 많고
이미지 관련 부분의 문법이 깨질것입니다
제출하기전에 빌드 해보시고 제출 부탁드립니다
| =============================== | ||
| **Author**: `Alexandros Chariton <https://github.com/AlexandrosChrtn>`_ | ||
| """ | ||
| 저자: Alexandros Chariton (<https://github.com/AlexandrosChrtn>) |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
저자 정보는 있는 그대로 넣어주시고 ()는 제거 따옴표및 _는 유지
추가로 역자 정보를 넣어주시기 바랍니다
| # Knowledge distillation is a technique that enables knowledge transfer from large, computationally expensive | ||
| # models to smaller ones without losing validity. This allows for deployment on less powerful | ||
| # hardware, making evaluation faster and more efficient. | ||
| # 지식 증류는 크고 계산 비용이 큰 모델로부터 지식을 작은 모델로 이전하는 기법입니다. |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
지식 증류는 지식을 크고 계산 비용이 큰 모델로부터 작은 모델로 이전하는 기법입니다.
라고 순서를 바꾸는게 읽기 편할거 같습니다
| # ``torchvision``. | ||
| # 이 튜토리얼에서는 경량 신경망의 정확도를 향상시키기 위한 여러 실험을 진행합니다. | ||
| # 더 강력한 네트워크를 교사(teacher)로 활용해 경량 학생(student) 네트워크를 개선하는 방식입니다. | ||
| # 경량 네트워크의 계산 비용과 속도는 변경되지 않으며, 우리는 순전히 가중치 학습 과정에만 개입합니다. |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
'우리'같은 주어는 일반적으로 생략합니다.
사용할 경우는 강조의 의미가 있을때만 넣는게 좋겠습니다
| # #test_dataset = Subset(test_dataset, range(min(num_images_to_keep, 10_000))) | ||
|
|
||
| #Dataloaders | ||
| # 데이터로더(Dataloaders) |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
원문처럼 #뒤에 공백은 빼주세요
| # 학생 모델 쪽이 필터와 뉴런 수가 더 적습니다. | ||
|
|
||
| # Deeper neural network class to be used as teacher: | ||
| # 교사(teacher)로 사용할 더 깊은 신경망 클래스: |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
흔한 표현이고 위에서 영어 병기 했으면 두번째부터는 필요없습니다.
| # :align: center | ||
| # | ||
| # Train both networks with Cross-Entropy. The student will be used as a baseline: | ||
| # (이미지: /../_static/img/knowledge_distillation/ce_only.png, 중앙 정렬) |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
이 부분은 문법이 깨질것입니다. 빌드해보고 다시 reSt 문법을 고쳐주세요
| # 원 논문은 soft target의 작은 확률들 간 비율을 활용하면 유사성 구조를 잘 학습하는 데 도움이 된다고 제안합니다. | ||
| # 예를 들어 CIFAR-10에서 트럭은 자동차나 비행기로 오인될 수 있지만 개로 오인될 가능성은 낮습니다. | ||
| # 따라서 전체 출력 분포에 유용한 정보가 포함되어 있다고 보는 것이 합리적입니다. | ||
| # 그러나 교차 엔트로피만으로는 비예측 클래스의 활성화가 너무 작아 그래디언트가 충분히 전달되지 못하는 문제가 있습니다. |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
용어집에서 gradient 번역을 찾아서 바꿔주세요
| # :align: center | ||
| # | ||
| # Distillation loss is calculated from the logits of the networks. It only returns gradients to the student: | ||
| # (이미지: /../_static/img/knowledge_distillation/distillation_output_loss.png, 중앙 정렬) |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
reSt
|
|
||
| # outputs: Output of the network for the collection of images. A tensor of dimensionality batch_size x num_classes | ||
| # labels: The actual labels of the images. Vector of dimensionality batch_size | ||
| # 출력: batch_size x num_classes 크기의 텐서 |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
용어집에서 tensor 번역을 찾아보세요
| # * `Romero, A., Ballas, N., Kahou, S.E., Chassang, A., Gatta, C., Bengio, Y.: Fitnets: Hints for thin deep nets. In: Proceedings of the International Conference on Learning Representations (2015) <https://arxiv.org/abs/1412.6550>`_ | ||
| # 추가 정보: | ||
| # Hinton, G., Vinyals, O., Dean, J.: "Distilling the knowledge in a neural network" (NIPS Deep Learning Workshop, 2015). https://arxiv.org/abs/1503.02531 | ||
| # Romero, A., Ballas, N., Kahou, S.E., Chassang, A., Gatta, C., Bengio, Y.: "Fitnets: Hints for thin deep nets" (ICLR, 2015). https://arxiv.org/abs/1412.6550 |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
불필요한 공백 줄은 추가하지 않습니다
라이선스 동의
변경해주시는 내용에 BSD 3항 라이선스가 적용됨을 동의해주셔야 합니다.
더 자세한 내용은 기여하기 문서를 참고해주세요.
동의하시면 아래
[ ]를[x]로 만들어주세요.관련 이슈 번호
이 Pull Request와 관련있는 이슈 번호를 적어주세요.
이슈 또는 PR 번호 앞에 #을 붙이시면 제목을 바로 확인하실 수 있습니다. (예. #999 )
beginner_source/knowledge_distillation_tutorial.py 번역 #1026
PR 종류
이 PR에 해당되는 종류 앞의
[ ]을[x]로 변경해주세요.PR 설명
Knowledge Distillation Tutorial 튜토리얼을 1차번역하였습니다. 추후 다듬은 버전을 PR에 반영할 예정입니다.