Page 40 - flip-procesos
P. 40
✐ ✐
“ProcesosMathBookFC” — 2012/2/2 — 10:58 — page 32 — #38
✐ ✐
32 3. Cadenas de Markov
y0 b 1. Suponga que la distribuci´on inicial est´a dada por p 0 P X 0
0 y p 1 P X 0 1 .
a
0 1
0 1 a a
P 1 a 0 1 1 b
1 b 1 b
b
Figura 3.2
Aunque de aspecto sencillo, esta cadena es susceptible de muchas aplica-
ciones pues es com´un encontrar situaciones en donde se presenta siempre
la dualidad de ser o no ser, estar o no estar, tener o no tener, siempre en
una constante alternancia entre un estado y el otro. Cuando a 1 b,las
variables X 1 ,X 2 ,... son independientes e id´enticamente distribuidas con
P X n 0 1 a y P X n 1 a,para cada n 1. Cuando a 1 b,
X n depende de X n 1 .M´as adelante daremos la soluci´on alproblema no
trivial de encontrar las probabilidades de transici´on en n pasos. Estas pro-
babilidades son, para a b 0,
p 00 n p 01 n
P n
p 10 n p 11 n
1 ba 1 a b n a a
.
a b ba a b b b
Cadena de variables aleatorias independientes
Sea ξ 1 , ξ 2 ,... una sucesi´on de variables aleatorias independientes con valores
en el conjunto 0, 1,... ,y con id´entica distribuci´on dada por las probabi-
lidades a 0 ,a 1 ,... Definiremos varias cadenas de Markov a partir de esta
sucesi´on.
a) Sea X n ξ n .La sucesi´on X n : n 1 es una cadena de Markov
con espacio de estados 0, 1,... ,y con probabilidades de transici´on
p ij P X n j X n 1 i P X n j a j .Es decir,la matriz de
✐ ✐
✐ ✐