26 de mayo de 2011

31 de mayo 2011: Procesos Autorregresivos no Lineales de Primer Orden


El pasado martes 31 de mayo la MsC. Angie Pineda, profesora de la Escuela de Matemática de la UCV nos dió una charla en el Coloquio de Matemáticas. A continuación un resumen de su charla.

Procesos Autorregresivos no Lineales de Primer Orden

En esta charla consideraremos procesos estocásticos $\mathbf{X}=(X_n)_{n\geq1},$ que se definen a partir de: una variable aleatoria $X$ con distribución $\pi$ sobre un espacio medible $(\Omega, \mathcal{F}),$ una función de $\mathbb{R}$ en $\mathbb{R}$ medible con respecto a la $\sigma-$álgebra de Borel y una sucesión $(\epsilon_n)_{n\geq1}$ de variables aleatorias independientes e idénticamente distribuidas con ley $\mu,$ como sigue

$ X
_0= X y X_n=f( X_{n-1})+ \epsilon_{n-1} $ para $n\geq1.$

Estos procesos son llamados autorregresivos lineales y no lineales de primer orden (si f es una recta, es un autorregresivo lineal y de lo contrario es no lineal). Se hará especial énfasis en el caso no lineal y por esta razón denotaremos al proceso definido anteriormente por ANL (autorregresivo no lineal), aunque todos los resultados que se consideran también son válidos para el caso lineal.

En la primera parte de la charla veremos que el ANL es una cadena de Markov y se consideraran las propiedades Markovianas del proceso.

En la segundo parte consideraremos una serie de teoremas límites, entre los que resaltan versiones de la ley fuerte de los grandes números (teorema ergódico) y del teorema central del límite que no dependen de la independencia de los elementos del proceso. Para justificar el uso de las conclusiones de estos teoremas se consideran las propiedades de las cadenas de Markov asociadas con las nociones de ergodicidad, ergodicidad geométrica, existencia de la medida invariante y mixing.

Para finalizar, bajo el supuesto de que una muestra aleatoria simple $X_0,X_1...X_n$ es tomada de un proceso autorregresivo de primer orden, para tres ejemplos específicos del ANL, se construyen estimadores $f_n$ de la función $f$ que caracteriza el proceso y se concluye (para los ejemplos $1$ y $2$), la convergencia casi segura de $f_n$ a $f$ y la convergencia en distribución de $f_n$ a una v.a $N,$ normalmente distribuida de parámetros $0$ y $\sigma^2<\infty$ y para el ejemplo $3$ la convergencia en probabilidad de $f_n$ a $f.$

No hay comentarios:

Publicar un comentario