Skip to content

Conversation

@leewoojye
Copy link

라이선스 동의

변경해주시는 내용에 BSD 3항 라이선스가 적용됨을 동의해주셔야 합니다.

더 자세한 내용은 기여하기 문서를 참고해주세요.

동의하시면 아래 [ ][x]로 만들어주세요.

  • 기여하기 문서를 확인하였으며, 본 PR 내용에 BSD 3항 라이선스가 적용됨에 동의합니다.

관련 이슈 번호

이 Pull Request와 관련있는 이슈 번호를 적어주세요.

이슈 또는 PR 번호 앞에 #을 붙이시면 제목을 바로 확인하실 수 있습니다. (예. #999 )

PR 종류

이 PR에 해당되는 종류 앞의 [ ][x]로 변경해주세요.

  • 오탈자를 수정하거나 번역을 개선하는 기여
  • 번역되지 않은 튜토리얼을 번역하는 기여
  • 공식 튜토리얼 내용을 반영하는 기여
  • 위 종류에 포함되지 않는 기여

PR 설명

Knowledge Distillation Tutorial 튜토리얼을 1차번역하였습니다. 추후 다듬은 버전을 PR에 반영할 예정입니다.

Copy link
Member

@hyoyoung hyoyoung left a comment

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

번역 자체는 괜찮으나
용어집에 없는 용어가 많고
이미지 관련 부분의 문법이 깨질것입니다
제출하기전에 빌드 해보시고 제출 부탁드립니다

===============================
**Author**: `Alexandros Chariton <https://github.com/AlexandrosChrtn>`_
"""
저자: Alexandros Chariton (<https://github.com/AlexandrosChrtn>)
Copy link
Member

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

저자 정보는 있는 그대로 넣어주시고 ()는 제거 따옴표및 _는 유지
추가로 역자 정보를 넣어주시기 바랍니다

# Knowledge distillation is a technique that enables knowledge transfer from large, computationally expensive
# models to smaller ones without losing validity. This allows for deployment on less powerful
# hardware, making evaluation faster and more efficient.
# 지식 증류는 크고 계산 비용이 큰 모델로부터 지식을 작은 모델로 이전하는 기법입니다.
Copy link
Member

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

지식 증류는 지식을 크고 계산 비용이 큰 모델로부터 작은 모델로 이전하는 기법입니다.
라고 순서를 바꾸는게 읽기 편할거 같습니다

# ``torchvision``.
# 이 튜토리얼에서는 경량 신경망의 정확도를 향상시키기 위한 여러 실험을 진행합니다.
# 더 강력한 네트워크를 교사(teacher)로 활용해 경량 학생(student) 네트워크를 개선하는 방식입니다.
# 경량 네트워크의 계산 비용과 속도는 변경되지 않으며, 우리는 순전히 가중치 학습 과정에만 개입합니다.
Copy link
Member

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

'우리'같은 주어는 일반적으로 생략합니다.
사용할 경우는 강조의 의미가 있을때만 넣는게 좋겠습니다

# #test_dataset = Subset(test_dataset, range(min(num_images_to_keep, 10_000)))

#Dataloaders
# 데이터로더(Dataloaders)
Copy link
Member

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

원문처럼 #뒤에 공백은 빼주세요

# 학생 모델 쪽이 필터와 뉴런 수가 더 적습니다.

# Deeper neural network class to be used as teacher:
# 교사(teacher)로 사용할 더 깊은 신경망 클래스:
Copy link
Member

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

흔한 표현이고 위에서 영어 병기 했으면 두번째부터는 필요없습니다.

# :align: center
#
# Train both networks with Cross-Entropy. The student will be used as a baseline:
# (이미지: /../_static/img/knowledge_distillation/ce_only.png, 중앙 정렬)
Copy link
Member

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

이 부분은 문법이 깨질것입니다. 빌드해보고 다시 reSt 문법을 고쳐주세요

# 원 논문은 soft target의 작은 확률들 간 비율을 활용하면 유사성 구조를 잘 학습하는 데 도움이 된다고 제안합니다.
# 예를 들어 CIFAR-10에서 트럭은 자동차나 비행기로 오인될 수 있지만 개로 오인될 가능성은 낮습니다.
# 따라서 전체 출력 분포에 유용한 정보가 포함되어 있다고 보는 것이 합리적입니다.
# 그러나 교차 엔트로피만으로는 비예측 클래스의 활성화가 너무 작아 그래디언트가 충분히 전달되지 못하는 문제가 있습니다.
Copy link
Member

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

용어집에서 gradient 번역을 찾아서 바꿔주세요

# :align: center
#
# Distillation loss is calculated from the logits of the networks. It only returns gradients to the student:
# (이미지: /../_static/img/knowledge_distillation/distillation_output_loss.png, 중앙 정렬)
Copy link
Member

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

reSt


# outputs: Output of the network for the collection of images. A tensor of dimensionality batch_size x num_classes
# labels: The actual labels of the images. Vector of dimensionality batch_size
# 출력: batch_size x num_classes 크기의 텐서
Copy link
Member

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

용어집에서 tensor 번역을 찾아보세요

# * `Romero, A., Ballas, N., Kahou, S.E., Chassang, A., Gatta, C., Bengio, Y.: Fitnets: Hints for thin deep nets. In: Proceedings of the International Conference on Learning Representations (2015) <https://arxiv.org/abs/1412.6550>`_
# 추가 정보:
# Hinton, G., Vinyals, O., Dean, J.: "Distilling the knowledge in a neural network" (NIPS Deep Learning Workshop, 2015). https://arxiv.org/abs/1503.02531
# Romero, A., Ballas, N., Kahou, S.E., Chassang, A., Gatta, C., Bengio, Y.: "Fitnets: Hints for thin deep nets" (ICLR, 2015). https://arxiv.org/abs/1412.6550
Copy link
Member

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

불필요한 공백 줄은 추가하지 않습니다

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment

Labels

None yet

Projects

None yet

Development

Successfully merging this pull request may close these issues.

2 participants