Markov Chain

FrontPage|FindPage|TitleIndex|RecentChanges| UserPreferences P RSS

Transition Probability


우선 세상의 어떤 순간을 설명할 모든 base를 알고 있다고 하자. 그 상태를 i라고 하자. 그렇지만 세상은 시간에 따라 변하므로 어떤 시간이 지난 후에 상태가 i에서 j,j',j" 등으로 바뀐다고 하면, i-> j,i->j',i->j"등으로 변하는 함수를 생각할 수 있고 각각의 함수를 하나의 행렬로 나타낼 수 있다. 그 행렬을 Transition Probability라고 한다.

Markov Process


앞에서 말한 Transition Probability를 알고 있을 때, 이것이 Markov Process가 되기 위해서는

1) 이 행렬의 각각의 함수가 오로지 각각에 연관된 상태, 즉, i->j는 오로지 i와 j에 대해서, 그리고 i-> j'은 오로지 i와 j'에 대해서만 연관되어 있어야 하며,
2) 이 Transition Probability는 시간이 지난다고 해서 변하거나 하면 안된다. 물론 시간이 지나면, i와 j'은 변하겠지만, Transition Probability는 변하면 안된다.
이 두 가지 조건을 만족하는 Transition Probability에 의해 어떤 하나의 상태에서 다른 상태로 변하는 과정을 Markov Process라고 한다. 이런 Markov Process를 얻기 위해서는 이 Markov Process가 Ergodicity와 Detailed balance라는 조건을 만족하도록 만들어야 한다.


비슷한 내용을 다르게 표현하기도 합니다.
어떤 process x가 넓은 의미에서 Markov Process라고 할 수 있다면, 그 0번째(공돌이식 숫자세기입니다.)부터 i번째까지의 x를 가지고 만들수 있는 오차의 분산이 가장 작은 경우가 가장 최근의 observation인 i-1번째 x로 결정된다는 특성을 만족하면 됩니다.
헉.. 뭔가 approximation이 있는.. heuristic한 ... 이해하기 어려운 .. ㅡ.ㅡ; 내용이군요.. 보다 자세한 설명이나 reference를 주시겠습니까. --naya
뭔가 거나한 이야기는 아니구요 linear estimation theory(선형 추정론?) 관련 책에는 다 나오는 평범(-_-)한 내용입니다. Markov process는 (정확히는 linear) least mean square error를 구할때 바로 직전 observation으로만 결정할 수 있다는 말을 조금 더 수식에 가깝게 써 놓은 것이랍니다. 지도교수님 전공이라서-_-;;; 전자공학쪽의 통신이나 Estimation의 Kalman 필터책을 보셔도 좋구요. 제가 보는 책은 Thomas Kailath 교수의 Linear Estimation입니다. 뭐 공학쪽에서 써먹기 좋은 것이라는 거지요. 통신쪽 책을 보시면 아래에 나오는 Ergodic에 대해서도 비슷한 접근 방식을 볼 수 있습니다. --Gravi

Ergodicity


Ergodicity라는 것의 개념은 의외로 간단하다. 즉, Markov Process를 반복하면,(Markov Process시행한다는 것은 시간이 흘렀다는 것을 의미한다.) 언젠가는 우리가 이르고자 하는 상태에 도달해야한다는 것이 바로 Ergodicity이다. 이 조건이 만족되지 않는다면, 사실상 Markov Process를 행한다는 것 자체가 무의미하다. 개념은 당연해보이지만, 이것을 만족시키기는 결코 쉽지 않다.

리학 특별히 계물리학에서는 Ergodic가정을 만복하는 하는 성질을 Ergodicity라고 할 수 있는데 Ergodic가정이란 Ensemble평균과 시간평균이 같다는 것을 말합니다. 이 성질때문에 MonteCarloMethod를 수행하건 MolecularDynamics를 수행하건 같은 답을 주리라고 기대할 수 있습니다. 물론 MolecularDynamics의 경우 무한히 긴 시간과 MonteCarloMethod에서는 무한히 많은 sampling이 필요하겠지요. --ohdh2003

Detailed Balance


이 개념이 통계학적으로 어떻게 설명되는지는 잘 모르겠다. 그렇지만 통계물리에서는 다음과 같이 설명된다.

이것은 Transition Probability를 반복적으로 적용해서 어느 순간에 상태의 변화가 limit cycle이 되던지, 어떤 하나의 상태로 가던지, 아무튼 어떤 경우로 수렴하게 된다. 그 상태가 열역학에서는 Equilibrium이므로 이 상태들의 확률 분포는 Boltzman Distribution이 되어야한다. 이것이 만족되게 하는 조건이 Detailed Balance이다.

Markov Chain


이렇게 정의된 Markov Process에 의해 생성된 일련의 상태들을 그 상태들의 Markov Chain이라고 한다.



"; if (isset($options[timer])) print $menu.$banner."
".$options[timer]->Write()."
"; else print $menu.$banner."
".$timer; ?> # # ?>