TensorFlowKR facebook comunity에서 모인 12명의 paper readers (PR12)가 읽어주는 Deep learning paper awesome list 100선 by Terry Um.
#61. Understanding Deep Learning Requires Rethinking Generalization
이 리뷰에서는 최근 ICLR 2017 Best paper award를 수상했던 Generalization에 관한 논문을 소개해보았습니다. 이 논문 역시도 현재까지 존재하던 이론들이 제대로 신경망 모델의 성능을 설명하지 못하고 있다는 매우 대담한 주장을 하여 매우 화제가 되었습니다. 다만 제 생각과는 다른 점이 몇 있고 논리에 빈틈이 있어보여서 논문의 내용을 충실히 전달하되 비판적인 입장에서 리뷰를 진행해보았습니다. 즐겁게 들어주시면 감사하겠습니다.
슬라이드: https://www.slideshare.net/thinkingfactory/pr12-understanding-deep-learning-requires-rethinking-generalization
다음에 또 다른 주제로 뵈어요~!
다른 분들의 발표도 보고 싶다면: PR12 딥러닝 논문읽기 모임
다음 읽을거리
- Backpropagation 설명 예제와 함께 완전히 이해하기
- RNN 설명 예제와 함께 완전히 이해하기
- 초짜 대학원생의 입장에서 이해하는 VAE (1)
- 초짜 대학원생 입장에서 이해하는 GANs (1)
- 초짜 대학원생의 입장에서 이해하는 Domain-Adversarial Training of Neural Networks (DANN) (1)
- 초짜 대학원생의 입장에서 이해하는 DCGAN (1)
- 초짜 대학원생의 입장에서 이해하는 Unrolled GAN (1)
- 초짜 대학원생의 입장에서 이해하는 InfoGAN (1)
- 초짜 대학원생의 입장에서 이해하는 LSGAN (1)
- 초짜 대학원생의 입장에서 이해하는 BEGAN (1)
- 초짜 대학원생의 입장에서 이해하는 f-GAN (1)
- 초짜 대학원생의 입장에서 이해하는 EBGAN (1)
- 초짜 대학원생의 입장에서 이해하는 The Marginal Value of Adaptive Gradient Methods in Machine Learning (1)
- 초짜 대학원생의 입장에서 이해하는 SVM (1)
댓글 없음:
댓글 쓰기