Page 94 - flip-procesos
P. 94
✐ ✐
“ProcesosMathBookFC” — 2012/2/2 — 10:58 — page 86 — #92
✐ ✐
86 3. Cadenas de Markov
Entonces las probabilidades l´ımite π j l´ım p ij n existen, est´an dadas por
n
π j 1 µ j ,y constituyen la ´unica soluci´on al sistema de ecuaciones
π j π i p ij , (3.15)
i
0,y 1.
sujeto a las condiciones π j j π j
Demostraci´on. Como la cadena es irreducible y recurrente positiva, tiene
una ´unica distribuci´on estacionaria dada por π j 1 µ j .Es decir, es la ´unica
soluci´on al sistema de ecuaciones π πP,con π j 0y π j 1. Adem´as,
j
por la aperiodicidad, p ij n π j . !
3.15. Cadenas regulares
Las cadenas de Markov regulares son cadenas finitas que cumplen la pro-
piedad de que a partir de un cierto momento, con probabilidad positiva se
puede pasar de un estado a otro cualquiera en un paso. Demostraremos que
para este tipo de cadenas siempre existe la distribuci´on l´ımite.
Definici´on 3.15 Se dice que una cadena finita o su matriz de probabilida-
des de transici´on es regular si existe un entero natural n tal que p ij n 0,
para cualesquiera estados i y j.
En palabras, una cadena de Markov finita es regular si alguna potencia de
su matriz de probabilidades de transici´on tiene todas sus entradas estricta-
mente positivas. Otra forma de definir a una cadena regular es atrav´es del
siguiente resultado.
Proposici´on 3.20 Una matriz estoc´astica es regular si, y s´olo si, es finita,
irreducible y aperi´odica.
Demostraci´on. Si la matriz es regular, entonces claramente es finita,
irreducible y aperi´odica. Rec´ıprocamente, por la irreducibilidad, para cua-
lesquiera dos estados i y j,existe un entero m tal que p ij m 0. Entonces
existe un entero N tal que p ij m nd j 0, para cada n N.Como
d j 1y siendola matriz finita, esto implica la regularidad. !
✐ ✐
✐ ✐