Page 156 - flip-procesos
P. 156
✐ ✐
“ProcesosMathBookFC” — 2012/2/2 — 10:58 — page 148 — #154
✐ ✐
148 5. Cadenas de Markov a tiempo continuo
que el t´ermino p x t significa P X t x t .La propiedad de Markov que
consideraremos tiene la siguiente forma: para cualesquieratiempos 0 t 1
t n ,
t 2
.
p x t n x t 1 ,... ,x t n 1 p x t n x t n 1
Observe que no estamos suponiendo que se conoce la historia del proceso en
todo el pasado a tiempo continuo, sino ´unicamente en una colecci´on arbi-
traria pero finita de tiempos pasados t 1 ,... ,t n 1 .Supondremos nuevamente
que estas probabilidades de transici´on son estacionarias en el tiempo, esto
significa que para cada s 0y t 0, la probabilidad P X t s j X s i
es id´entica a P X t j X 0 i ,es decir, no hay dependencia del valor de s.
Esta probabilidad se escribe de manera breve mediante la expresi´on p ij t ,
para i y j enteros no negativos. Es decir,
p ij t P X t s j X s i P X t j X 0 i .
En particular para t 0se define nuevamente p ij 0 como la funci´on delta
de Kronecker, es decir,
1si i j,
p ij 0 δ ij
0si i j.
Haciendo variar los ´ındices i y j en el espacio de estados se obtiene la matriz
de probabilidades de transici´on al tiempo t,que denotaremos por P t yen
ocasiones se escribe tambi´en como P t :
p 00 t p 01 t
P t p ij t p 10 t p 11 t .
. . . . . .
Puede demostrarse que cuando el espacio de estados es finito, esta matriz
es siempre estoc´astica, es decir, los elementos de cada rengl´on suman uno.
Sin embargo, existen ejemplos en el caso de espacios de estados infinito en
donde no se cumple tal propiedad, es decir, en general, j p ij t 1. Esta
es una diferencia inesperada respecto del modelo a tiempo discreto.
Definici´on 5.1 Aun proceso de saltos con las caracter´ısticas y postulados
arriba se˜nalados se le llama cadena de Markov a tiempo continuo.
✐ ✐
✐ ✐