TensorFlowKR facebook comunity에서 모인 12명의 paper readers (PR12)가 읽어주는 deep learning papers
#323.Separation and Concentration in Deep Networks
오늘도 저번처럼 가면 갈수록 big model로 치닫고 있는 연구 방향과는 정반대로, 학습이 거의 없이 ImageNet에서 ResNet classification 성능을 제치는 모델을 소개해보겠습니다. NYU의 Joan Bruna와 신호처리의 거장 중 한명인 Stephane Mallat 교수님의 scattering network에 대해 아신다면 더 잘 이해가 가실 것 같습니다 🙂 매우 즐겁게 읽었는데요. 다른 분들도 재미있으셨으면 좋겠습니다.
Paper: https://openreview.net/forum?id=8HhkbjrWLdE
슬라이드: https://www.slideshare.net/thinkingfactory/pr12-generative-models-as-distributions-of-functions
4기 되어 두번째 발표입니다. 다른 분들의 발표도 보고 싶다면 아래 링크에서 확인하시면 되겠습니다 :)
* 현재 4기가 진행 중입니다!
다음 읽을거리
- Backpropagation 설명 예제와 함께 완전히 이해하기
- RNN 설명 예제와 함께 완전히 이해하기
- 초짜 대학원생의 입장에서 이해하는 VAE (1)
- 초짜 대학원생 입장에서 이해하는 GANs (1)
- 초짜 대학원생의 입장에서 이해하는 Domain-Adversarial Training of Neural Networks (DANN) (1)
- 초짜 대학원생의 입장에서 이해하는 DCGAN (1)
- 초짜 대학원생의 입장에서 이해하는 Unrolled GAN (1)
- 초짜 대학원생의 입장에서 이해하는 InfoGAN (1)
- 초짜 대학원생의 입장에서 이해하는 LSGAN (1)
- 초짜 대학원생의 입장에서 이해하는 BEGAN (1)
- 초짜 대학원생의 입장에서 이해하는 f-GAN (1)
- 초짜 대학원생의 입장에서 이해하는 EBGAN (1)
- 초짜 대학원생의 입장에서 이해하는 The Marginal Value of Adaptive Gradient Methods in Machine Learning (1)
- 초짜 대학원생의 입장에서 이해하는 SVM (1)
- Image Restoration (IR): inverse problem point of view (1)
- 디지털 신호 처리가 궁금하다면: Signal Processing For Communications
- 머신러닝에 속하는 전반적인 연구 내용들이 궁금하다면: Machine learning
- 머신러닝에서 잘 사용되는 수학에 관심이 있다면: Mathematics
댓글 없음:
댓글 쓰기