<aside> 🌠 - 대규모 데이터셋에서 연속적인 잠재 변수를 포함한 계산 불가능한 posterior probability distribution이 존재하는 경우에도 효율적인 추론과 학습을 수행하는 알고리즘을 소개

주요 기여

  1. variational lower bound의 reparameterization → 표준 확률적 경사 하강법(stochastic gradient descent)으로 최적화 가능
  2. i.i.d 가정을 따르는 데이터셋에서 연속적인 잠재 변수를 데이터 포인트마다 가지는 경우, 제안된 하한 추정치를 사용해 계산할 수 없는 사후 확률 분포에 대한 근사 추론 모델(인식 모델)을 맞추어 사후(posterior) 추론을 더욱 효율적으로 만들 수 있음을 보여줌

</aside>

1. Introduction

어떻게 하면 intractable posterior distribution을 가진 방향성 확률 모델에서 연속적인 잠재 변수 또는 파라미터가 효율적인 근사 추론과 학습을 수행할 수 있도록 할 수 있을까?

⇒ 변분 베이지안(VB) 접근법 활용

2. Method

<aside> <img src="/icons/verified_green.svg" alt="/icons/verified_green.svg" width="40px" /> “연속적인 잠재 변수를 가진 다양한 방향성 그래프 모델에 대해 하한 추정치(확률적 목표 함수)를 도출해보자!”

</aside>

2-1. Problem scenario

Datasets

Problems

marginal density나 posterior distribution에 대한 일반적인 단순화 가정을 하지 않으며, 난해한 경우에도 효율적으로 작동하도록 함

Solutions

Amortized Variational Inference
⇒ function 활용, 이때 Neural Network가 function의 역할 수행

Amortized Variational Inference ⇒ function 활용, 이때 Neural Network가 function의 역할 수행

2-2. The variational bound