Page 118 - flip-procesos
P. 118
✐ ✐
“ProcesosMathBookFC” — 2012/2/2 — 10:58 — page 110 — #116
✐ ✐
110 3. Cadenas de Markov
90. Demuestre que si la distribuci´on uniforme es una distribuci´on esta-
cionaria para una cadena de Markov finita, entonces la correspondien-
te matriz de probabilidades de transici´on es doblemente estoc´astica.
91. Considere una cadena de Markov a tiempo discreto con espacio de
estados finito y tal que para cada estado j los siguientes l´ımites existen
yno dependen del estado i,
l´ım p ij n π j .
n
Demuestre que π π j es una distribuci´on estacionaria.
92. Justifique la existencia y unicidad, y encuentre la distribuci´on esta-
cionaria para una caminata aleatoria simple no sim´etrica sobre el con-
junto 0, 1,... ,n ,en donde los estados 0 y n son reflejantes, es decir:
q.Las otras probabilidades de
p 00 q, p 01 p, p nn p, p n,n 1
transici´on son: p i,i 1 p y p i,i 1 q para i 1, 2,... ,n 1.
93. Considere una caminata aleatoria X n : n 0 sobre el conjunto
0, 1,... ,N 1,N en donde los estados 0 y N son reflejantes, es decir,
P X n 1 1 X n 0 1y P X n 1 N 1 X n N 1. El resto
de las probabilidades de transici´on son P X n 1 i 1 X n i p
y P X n 1 i 1 X n i q,para i 1, 2,... ,N 1. V´ease la
Figura 3.20. Calcule el n´umero promedio de visitas que la caminata
realiza a cada uno de sus estados.
1 q p 1
0 1 i 1 i i 1 N 1 N
Figura 3.20
94. Sea P la matriz de probabilidades de transici´on de una cadena de Mar-
kov con n estados. Demuestre que π es una distribuci´on estacionaria
para P si y s´olo si
π I P A a,
✐ ✐
✐ ✐