Page 89 - flip-procesos
P. 89
✐ ✐
“ProcesosMathBookFC” — 2012/2/2 — 10:58 — page 81 — #87
✐ ✐
3.14. Distribuciones l´ ımite 81
Definici´on 3.14 Considere una cadena de Markov con matriz de probabi-
0
lidades de transici´on P p ij ydistribuci´oninicial π .Selellama dis-
tribuci´on l´ımite de esta cadena al vector
0
0
π l´ım π P n l´ım π p ij n .
i
n n
i
Observe que el vector l´ımite π en la definici´on anterior podr´ıa no ser una
distribuci´on de probabilidad verdadera, a pesar de esto mantendremos dicho
t´ermino en la definici´on. Como se ha mencionado, toda posible distribuci´on
l´ımite es estacionaria pero el rec´ıproco es en general falso, como se ilustra
en el siguiente ejemplo.
Ejemplo 3.24 Es inmediato comprobar que la distribuci´on 1 2, 1 2 es
estacionaria para la cadena con matriz
01
P .
10
Sin embargo las potencias de P no convergen, pues para cualquier n 0,
P 2n 1 01 y P 2n 10 .
10 01
El siguiente resultado es v´alido para espacios de estados finitos o infinitos,
yestablece que si el l´ımite de las probabilidades p ij n ,cuando n ,
existen y no dependen de i,entonces la distribuci´on l´ımite podr´ıa ser una
distribuci´on estacionaria. Esto es solamente una posibilidad, pues los l´ımites
podr´ıan ser todos cero. En el caso finito, sin embargo, demostraremos que
tales l´ımites conforman una distribuci´on de probabilidadverdadera.
Proposici´on 3.19 Considere una cadena de Markov con probabilidades de
transici´on p ij tales que los l´ımites π j l´ım n p ij n existen para cada j,
yno dependen del estado i.Entonces
1. π j 1.
j
2. π j π i p ij .
i
✐ ✐
✐ ✐