<- Back to projects and build log

KL Regularization

참고 : [[Regularization, Normalization, Standardization, Generalization]] [[VAE]]의 Regularization Error 라고 보면 된다. $$ L i(\phi, \theta, x i) = \mathbb{E} {q \phi}(z|x i)[log(x i|g \theta(z))] + KL(q \phi(z|x i)||p(z)) $$ 해당...

ai-ml / vae / kl-divergence / regularization
KL Regularization 글 대표 일러스트
Jeffrey Kim의 SecondBrain 빌드 로그 아티클 커버

Quick context

First, this page captures one concrete build-log step, research note, or project lesson from Jeffrey Kim.

Next, use the tags, related reading, and home archive to move from this note to deeper material in the same topic cluster.

Finally, follow the RSS feed if you want the next experiment, retrospective, or paper review as soon as it ships.

Archive note

First, this imported note is intentionally compact. It acts as a pointer into the wider SecondBrain archive rather than a long-form standalone article.

Next, use the tags, related reading, and project sections to move toward deeper context. Those paths usually lead to fuller write-ups, experiments, or project retrospectives.

Finally, revisit this page together with the home archive and RSS feed when you want the follow-up posts that expand the same topic.

참고 : [[Regularization, Normalization, Standardization, Generalization]]

[[VAE]]의 Regularization Error라고 보면 된다.

Li(ϕ,θ,xi)=Eqϕ(zxi)[log(xigθ(z))]+KL(qϕ(zxi)p(z))L_i(\phi, \theta, x_i) = -\mathbb{E}_{q_\phi}(z|x_i)[log(x_i|g_\theta(z))] + KL(q_\phi(z|x_i)||p(z))

해당 Loss에서 뒷항이 Regularization Error이다. 하나의 샘플링 함수에 regularize 시켜서 high variance를 최대한 줄이고자 한다.

Related reading

같이 읽으면 좋은 프로젝트 로그와 연구 노트를 이어서 탐색해보세요.

  • Reparameterization Trick [[VAE]]에서 이어지는 내용.. VAE의 Regularization Error는 학습 중에 Backpropagation이 불가능하다. (왜냐하면 $z$는 랜덤변수라 $p(z)$는 Backpropagation이 불...
  • VQ regularization 참고 : [[Regularization, Normalization, Standardization, Generalization]] 디코더에서 [[Vector Quantization]] Layer를 사용한다 = [[Ve...
  • Variational Inference [[VAE]]에서 이어짐... 여기서 True Posterior 은 이상적인 샘플링 함수 이다. 어떻게 이상적이냐면, 표본 $x$를 이미 보여준 샘플링 함수인 것이다. 즉, true posterior은 $p(z|x)...
  • A Self-Supervised Reinforcement Learning Approach for Fine-Tuning Large Language Models Using Cross-Attention Signals 원문 들어가며 2015년 개봉한 어벤저스 : 에이지 오브 울트론의 한 장면이다. 토니 스타크에 의해 만들어진 초지능 자비스와 그것을 뛰어 넘는 울트론이 만들어진 장면이다. 10년 전, 공상 과학 영화의 일부였던 자비...