티스토리 뷰
- D regularization (R1 regularization) 은 주어진 인풋에 대한 output 값의 변화를 최소화 해주는 정칙화 방법이다. 이는 안정적인 discriminator학습을 위해 사용된다.
- G regularization은 w의 작은 섭동 (perturbation)에 그에 상응하는 작은 움직임 (non-zero, but fixed magnitude)을 강제하기 위해 사용된다. 이는 z, z + epsilon 두 벡터가 완전히 같지는 않지만 또 epsilon만큼의 변화에 해당되는 아웃풋 이미지를 생성하도록 강제한다.
- Latent Vector and Space는 사실 graphical model에서 파생된 단어인데, 주어진 데이터를 표현한 비교적 저차원 의미있는 공간정도로 생각하시면 될 것 같습니다.
- Z-W mapping은 8개의 MLP를 통해서 이루어집니다. MLP는 만능 근사자 (Universal Approximator, 시벤코 정리)이기 때문에 알아서 disentangled하게 만듭니다.
- StyleGAN-AdaIN이랑 StyleGAN2 modulation의 기본 철학은 똑같습니다. 단지, modulation and demodulation이 연산을 줄일 수 있다는 점, 몇몇의 신호처리 가정들이 들어가 약간의 성능 차이를 만들어 낸다는점이 다릅니다.
1. Wasserstein distance
(https://www.slideshare.net/ssuser7e10e4/wasserstein-gan-i)
(https://haawron.tistory.com/21, 중간 부분의 The Earth Mover Distance or Wasserstein1 참조)
2. Jensen Shannon Divergence
Shannon divergence 의 Symmetric한 버전이라고 생각하면 됩니다.
JSD(P, Q) = 0.5*KL(P, Q) + 0.5*KL(Q, P)
*KL divergence는 KL(P, Q) != KL(Q, P)이기에 거리가 아닙니다!
*Distance 의 조건: http://www.incodom.kr/Distance
Markov Chain은 P(x_t|x_t-1) = P(x_t|x_t-1, x_t-2, x_t-3, …) 인 확률 process를 의미합니다. 즉 오늘의 결과가 오직 어제의 상태에 영향을 받는 경우입니다.
Monte Carlo Estimation은 반복되는 적분 또는 시그마 계산을 하지 않기 위해 샘플링 기반으로 기댓값을 구하는 방법입니다.(https://studyingrabbit.tistory.com/33)
https://www.slideshare.net/ssuser7e10e4/wasserstein-gan-i
Wasserstein GAN 수학 이해하기 I
이 슬라이드는 Martin Arjovsky, Soumith Chintala, Léon Bottou 의 Wasserstein GAN (https://arxiv.org/abs/1701.07875v2) 논문 중 Example 1 을 해설하는 자료입니다
www.slideshare.net
https://haawron.tistory.com/21
[학부생의 딥러닝] GANs | WGAN, WGAN-GP : Wassestein GAN(Gradient Penalty)
GANs에서 WGAN-GP Loss는 LSGAN Loss와 함께 가장 많이 쓰이는 loss이다. 이전의 loss 들의 문제점을 많이 해결했고 논문에서는 잘 작동하는 이유를 수학적으로 후련하게 알려준다. 하지만 수학이 좀 많이
haawron.tistory.com
몬테 카를로 시뮬레이션(Monte Carlo Simulation) 의 이해 : 원주율값 구하기 (+파이썬 시뮬레이션 코드) (tistory.com)
몬테 카를로 시뮬레이션(Monte Carlo Simulation) 의 이해 : 원주율값 구하기 (+파이썬 시뮬레이션 코드)
몬테카를로 시뮬레이션(혹은 알고리듬)이란 무엇인지를 정의하기란 매우 어려운데, 그 이유는 이 방법론을 수학과 응용수학 분야에서 매우 광범위하게 사용하기 때문입니다. (1 )이 시뮬레이션
studyingrabbit.tistory.com
http://www.incodom.kr/Distance
Distance - 인코덤, 생물정보 전문위키
# [[Distance]] (거리)
www.incodom.kr
3. Backpropagation 문제-> 중간에 피처에 대한 자코비안을 계산해야한다는 것을 이해하는게 중요함.
(https://jaejunyoo.blogspot.com/2017/01/backpropagation.html)
4. 로스 커브 이해하기
5. Unbiased estimator, Biased estimation, Bias and Variance Tradeoff
https://jaejunyoo.blogspot.com/2017/01/backpropagation.html
Backpropagation 설명 예제와 함께 완전히 이해하기
쉽게 설명하는 기계학습(machine learning) 개념, 역전파(backpropagation) 예제와 함께 완전히 이해하기
jaejunyoo.blogspot.com
'내 이야기 > AIFFEL' 카테고리의 다른 글
AIFFEL 1주차 후기 (0) | 2021.12.27 |
---|
- Total
- Today
- Yesterday
- 삶 #성공
- 텐서플로우
- 강아지고양이분류기
- 분류기
- K-Digital
- EDA
- 아이펠
- 데이터전처리
- GAN #FID #StyleGAN #StyleGAN2
- cnn
- AIFFEL
- 포켓몬
- 토스 #독서 #유난한도전 #스타트업
- python #패러다임
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |