Download presentation
Presentation is loading. Please wait.
Published byCaren Chase Modified over 6 years ago
1
Gibbs Sampling A little bit of theory Outline: -What is Markov chain
- -When will it be stationary? Properties โฆ. -Gibbs is a Markov chain -P(z) is the stationary For structured learning like structured perceptron, know how to inference solve the problem Inference for everyone when using MRF Question - Ergoic: true considition. What is not? - Slice sampling (not sure to mention or not)
2
Gibbs Sampling Gibbs sampling from a distribution P(z) ( z = {z1,โฆ,zN} ) ๐ ๐ = ๐ง 1 0 , ๐ง 2 0 ,โฏ, ๐ง ๐ 0 For t = 1 to T: ๐ง 1 ๐ก ~๐ ๐ง 1 | ๐ง 2 = ๐ง 2 ๐กโ1 , ๐ง 3 = ๐ง 3 ๐กโ1 , ๐ง 4 = ๐ง 4 ๐กโ1 ,โฏ, ๐ง ๐ = ๐ง ๐ ๐กโ1 ๐ง 2 ๐ก ~๐ ๐ง 2 | ๐ง 1 = ๐ง 1 ๐ก , ๐ง 3 = ๐ง 3 ๐กโ1 , ๐ง 4 = ๐ง 4 ๐กโ1 ,โฏ, ๐ง ๐ = ๐ง ๐ ๐กโ1 ๐ง 3 ๐ก ~๐ ๐ง 3 | ๐ง 1 = ๐ง 1 ๐ก , ๐ง 2 = ๐ง 2 ๐ก , ๐ง 4 = ๐ง 4 ๐กโ1 ,โฏ, ๐ง ๐ = ๐ง ๐ ๐กโ1 โฆ Markov Chain: a stochastic process in which future states are independent of past states given the present state ๐ง ๐ ๐ก ~๐ ๐ง ๐ | ๐ง 1 = ๐ง 1 ๐ก , ๐ง 2 = ๐ง 2 ๐ก , ๐ง 3 = ๐ง 3 ๐ก ,โฏ, ๐ง ๐โ1 = ๐ง ๐โ1 ๐ก Output: ๐ ๐ = ๐ง 1 ๐ก , ๐ง 2 ๐ก ,โฏ, ๐ง ๐ ๐ก ๐ ๐ , ๐ ๐ , ๐ ๐ ,โฆ, ๐ ๐ป As sampling from P(z) Why?
3
Markov Chain Three cities A, B and C 1/6 1/2 1/2 1/2 1/6 2/3 1/2
Three cities A, B and C C 1/6 1/2 1/2 1/2 1/6 A B 2/3 1/2 Each day he decided which city he would visit with the probability distribution depending on which city he was in Random Walk Web pages ? Use on webpages, page rank The traveler recorded the cities he visited each day. โฆโฆ A B C A A This is a Markov chain state
4
Markov Chain With sufficient samples โฆโฆ A : B : C = 0.6 : 0.2 : 0.2
(independent of the starting city) 10000 days 10000 days 10000 days 5915 2025 2060 6016 2002 1982 5946 2016 2038 0.6 0.2
5
Markov Chain 0.2 0.2 0.6 The distribution will not change. P(A)=0.6
0.2 C P(A)=0.6 1/6 1/2 P(B)=0.2 1/2 1/2 P(C)=0.2 0.6 0.2 1/6 A B Stationary Distribution 2/3 1/2 Web pages ? Use on webpages, page rank 2/3 0.6 1/2 0.2 1/2 0.2 0.6 ๐ ๐ ๐ด ๐ด ๐ ๐ด + ๐ ๐ ๐ด ๐ต ๐ ๐ต + ๐ ๐ ๐ด ๐ถ ๐ ๐ถ =๐ ๐ด ๐ ๐ ๐ต ๐ด ๐ ๐ด + ๐ ๐ ๐ต ๐ต ๐ ๐ต + ๐ ๐ ๐ต ๐ถ ๐ ๐ถ =๐ ๐ต ๐ ๐ ๐ถ ๐ด ๐ ๐ด + ๐ ๐ ๐ถ ๐ต ๐ ๐ต + ๐ ๐ ๐ถ ๐ถ ๐ ๐ถ =๐ ๐ถ The distribution will not change.
6
Unique stationary distribution
Markov Chain A Markov Chain can have multiple stationary distributions. C A B 1 Reaching which stationary distribution depends on starting state The Markov Chain fulfill some conditions will have unique stationary distribution. Web pages ? Use on webpages, page rank Irreducible, appreriodic PT(sโ|s) for any states s and sโ is not zero Unique stationary distribution (sufficient but not necessary condition)
7
Markov Chain from Gibbs Sampling
Gibbs sampling from a distribution P(z) ( z = {z1,โฆ,zN} ) ๐ ๐ = ๐ง 1 0 , ๐ง 2 0 ,โฏ, ๐ง ๐ 0 For t = 1 to T: ๐ง 1 ๐ก ~๐ ๐ง 1 | ๐ง 2 = ๐ง 2 ๐กโ1 , ๐ง 3 = ๐ง 3 ๐กโ1 , ๐ง 4 = ๐ง 4 ๐กโ1 ,โฏ, ๐ง ๐ = ๐ง ๐ ๐กโ1 ๐ง 2 ๐ก ~๐ ๐ง 2 | ๐ง 1 = ๐ง 1 ๐ก , ๐ง 3 = ๐ง 3 ๐กโ1 , ๐ง 4 = ๐ง 4 ๐กโ1 ,โฏ, ๐ง ๐ = ๐ง ๐ ๐กโ1 ๐ง ๐ ๐ก ~๐ ๐ง ๐ | ๐ง 1 = ๐ง 1 ๐ก , ๐ง 2 = ๐ง 2 ๐ก , ๐ง 3 = ๐ง 3 ๐ก ,โฏ, ๐ง ๐โ1 = ๐ง ๐โ1 ๐ก โฆ Output: ๐ ๐ = ๐ง 1 ๐ก , ๐ง 2 ๐ก ,โฏ, ๐ง ๐ ๐ก ๐ง 3 ๐ก ~๐ ๐ง 3 | ๐ง 1 = ๐ง 1 ๐ก , ๐ง 2 = ๐ง 2 ๐ก , ๐ง 4 = ๐ง 4 ๐กโ1 ,โฏ, ๐ง ๐ = ๐ง ๐ ๐กโ1 Markov Chain: a stochastic process in which future states are independent of past states given the present state This is a Markov Chain ๐ ๐ , ๐ ๐ , ๐ ๐ ,โฆ, ๐ ๐ป zt only depend on zt-1 state
8
Markov Chain from Gibbs Sampling
Gibbs sampling from a distribution P(z) ( z = {z1,โฆ,zN} ) ๐ ๐ = ๐ง 1 0 , ๐ง 2 0 ,โฏ, ๐ง ๐ 0 For t = 1 to T: ๐ง 1 ๐ก ~๐ ๐ง 1 | ๐ง 2 = ๐ง 2 ๐กโ1 , ๐ง 3 = ๐ง 3 ๐กโ1 , ๐ง 4 = ๐ง 4 ๐กโ1 ,โฏ, ๐ง ๐ = ๐ง ๐ ๐กโ1 ๐ง 2 ๐ก ~๐ ๐ง 2 | ๐ง 1 = ๐ง 1 ๐ก , ๐ง 3 = ๐ง 3 ๐กโ1 , ๐ง 4 = ๐ง 4 ๐กโ1 ,โฏ, ๐ง ๐ = ๐ง ๐ ๐กโ1 ๐ง ๐ ๐ก ~๐ ๐ง ๐ | ๐ง 1 = ๐ง 1 ๐ก , ๐ง 2 = ๐ง 2 ๐ก , ๐ง 3 = ๐ง 3 ๐ก ,โฏ, ๐ง ๐โ1 = ๐ง ๐โ1 ๐ก โฆ Output: ๐ ๐ = ๐ง 1 ๐ก , ๐ง 2 ๐ก ,โฏ, ๐ง ๐ ๐ก ๐ง 3 ๐ก ~๐ ๐ง 3 | ๐ง 1 = ๐ง 1 ๐ก , ๐ง 2 = ๐ง 2 ๐ก , ๐ง 4 = ๐ง 4 ๐กโ1 ,โฏ, ๐ง ๐ = ๐ง ๐ ๐กโ1 Markov Chain: a stochastic process in which future states are independent of past states given the present state Proof that the Markov chain has unique stationary distribution which is P(z). ๐ ๐ , ๐ ๐ , ๐ ๐ ,โฆ, ๐ ๐ป
9
Markov Chain from Gibbs Sampling
Markov chain from Gibbs sampling has unique stationary distribution? ๐ ๐ ๐ง โฒ |๐ง >0, for any z and zโ Yes ๐ง 1 ๐ก ~๐ ๐ง 1 | ๐ง 2 = ๐ง 2 ๐กโ1 , ๐ง 3 = ๐ง 3 ๐กโ1 , โฏ, ๐ง ๐ = ๐ง ๐ ๐กโ1 None of the conditional probability is zero ๐ง 2 ๐ก ~๐ ๐ง 2 | ๐ง 1 = ๐ง 1 ๐ก , ๐ง 3 = ๐ง 3 ๐กโ1 , โฏ, ๐ง ๐ = ๐ง ๐ ๐กโ1 ๐ง 3 ๐ก ~๐ ๐ง 3 | ๐ง 1 = ๐ง 1 ๐ก , ๐ง 2 = ๐ง 2 ๐ก , โฏ, ๐ง ๐ = ๐ง ๐ ๐กโ1 โฆ ๐ง ๐ ๐ก ~๐ ๐ง ๐ | ๐ง 1 = ๐ง 1 ๐ก , ๐ง 2 = ๐ง 2 ๐ก , โฏ, ๐ง ๐โ1 = ๐ง ๐โ1 ๐ก can be any zt
10
Markov Chain from Gibbs Sampling
Show that P(z) is a stationary distribution ๐ง ๐ ๐ ๐ง โฒ |๐ง ๐ ๐ง =๐ ๐ง โฒ ๐ ๐ ๐ง โฒ |๐ง =๐ ๐ง 1 โฒ | ๐ง 2 , ๐ง 3 , ๐ง 4 ,โฏ, ๐ง ๐ ร๐ ๐ง 2 โฒ | ๐ง 1 โฒ , ๐ง 3 , ๐ง 4 ,โฏ, ๐ง ๐ ร๐ ๐ง 3 โฒ | ๐ง 1 โฒ , ๐ง 2 โฒ , ๐ง 4 ,โฏ, ๐ง ๐ Can be proofed, Random systematic sweep โฆ ร๐ ๐ง ๐ โฒ | ๐ง 1 โฒ , ๐ง 2 โฒ , ๐ง 3 โฒ ,โฏ, ๐ง ๐โ1 โฒ There is only one stationary distribution for Gibbs sampling, so we are done.
11
Thank you for your attention!
Similar presentations
© 2025 SlidePlayer.com. Inc.
All rights reserved.