Page 155 - flip-procesos
P. 155
✐ ✐
“ProcesosMathBookFC” — 2012/2/2 — 10:58 — page 147 — #153
✐ ✐
147
c) p ij 1.
j
En forma de matriz, las probabilidades de saltos constituyenuna matriz
estoc´astica de la siguiente forma:
0 p 01 p 02
p 10 0 p 12
P .
p 20 p 21 0
. . . . . . . . .
,... son indepen-
Supondremos adem´as que los tiempos de estancia T i 1 ,T i 2
dientes entre s´ı, y tambi´en son independientes del mecanismo mediante el
cual se escoge el estado j al cual la cadena salta despu´es de estar en cual-
quier otro estado i.Mas a´un, supondremos que cada variable T i es finita
con probabilidad uno, o bien, es infinita con probabilidad uno. En el primer
caso se dice que el estado i es no absorbente, y en el segundo caso que es
absorbente. El hecho de que T i se interpreta en el sentido de que el
proceso deja de saltar y permanece en el estado i el resto del tiempo, es
decir, el estado i es absorbente. Estamos entonces suponiendo que s´olo hay
dos tipos de estados: absorbentes o no absorbentes. En otras palabras, con
probabilidad uno el tiempo de estancia es finito o con probabilidad uno es
infinito. Por otra parte, un resultado no trivial establece que
Un proceso de las caracter´ısticas arriba especificadas satisface la
propiedad de Markov si, y s´olo si, los tiempos de estancia en los
estados no absorbentes tienen distribuci´on exponencial.
Este es un resultado importante cuya demostraci´on omitiremos y que sim-
plifica dr´asticamente el modelo general planteado. Como deseamos estudiar
procesos de saltos que cumplan la propiedad de Markov, pues tal propiedad
ayuda a calcular probabilidades con cierta facilidad, tendremos que supo-
ner entonces que el tiempo de estancia en un estado no absorbente i tiene
distribuci´on exp λ i ,con λ i 0, es decir,
F i t 1 e λ i t para t 0.
Observe que puede considerarse que λ i 0en el caso cuando T i .
Usando la misma notaci´on que en el caso de tiempos discretos,recordemos
✐ ✐
✐ ✐