Page 154 - flip-procesos
P. 154
✐ ✐
“ProcesosMathBookFC” — 2012/2/2 — 10:58 — page 146 — #152
✐ ✐
146 5. Cadenas de Markov a tiempo continuo
puede entonces escribirse en la forma siguiente:
i 1 si 0 t W 1 ,
i 2 si W 1 t W 2 ,
X t
i 3 si W 2 t W 3 ,
. . .
Aun proceso de estas caracter´ısticas se llama proceso de saltos, y parece ser
una buena versi´on continua de las cadenas de Markov a tiempo discreto. Sin
embargo, puede comprobarse que el proceso as´ı especificado puede no estar
definido para todo tiempo t 0, y tampoco hay garant´ıa de que se cumpla la
propiedad de Markov. Explicaremos a continuaci´on algunas condiciones que
impondremos a los procesos de saltos particulares que estudiaremos en este
cap´ıtulo. Puede suceder que los tiempos de estancia T sean cada vez m´as
peque˜nos de tal forma que l´ım n W n ,es decir,existe la posibilidad
de que el proceso efect´ue un n´umero infinito de saltos durante un intervalo
de tiempo acotado. En tal situaci´on el proceso no estar´ıa bien definido para
todo tiempo t 0, y se dice entonces que el proceso explota en un tiempo
finito. Para evitar tal comportamiento supondremos que
l´ım W n c.s.
n
ypor lo tanto, para cada t 0, el valor de X t es finito, c.s. Por otro lado, sin
p´erdida de generalidad supondremos que el espacio de estados es el conjunto
S 0, 1,...
yque el tiempo de estancia asociado el estado i es la variable aleatoria T i ,
la cual supondremos positiva con funci´on de distribuci´on F i t .Como en el
caso de cadenas a tiempo discreto, se denotar´a por p ij alaprobabilidad de
que la cadena pase del estado i al estado j al efectuar un salto. Adicional-
mente impondremos la condici´on p ii 0, y con ello se imposibilita que la
cadena salte al mismo estado de partida. Las probabilidades de saltos deben
entonces satisfacer las siguientes condiciones:
a) p ij 0.
b) p ii 0.
✐ ✐
✐ ✐