Procesos estocasticos_1

Embed Size (px)

Citation preview

  • 8/10/2019 Procesos estocasticos_1

    1/39

    Procesosestocasticos

  • 8/10/2019 Procesos estocasticos_1

    2/39

    Ejemplo

    Registro de la temperatura

    mxima diaria en una ciudad

    durante un mes.

    Serie temporal o

    cronolgica

    - sucesin de valores

    de una variable

    observada durante un

    periodo de tiempo.

    Ideas preliminaresSeries temporales

  • 8/10/2019 Procesos estocasticos_1

    3/39

    comportamiento

    Importancia

    Conocer la evolucin de

    los valores de la variable

    tratada en el tiempo.

    Predecir el

    de los fenmenos.

    Ideas preliminaresSeries temporales

  • 8/10/2019 Procesos estocasticos_1

    4/39

    Proceso estocsticoVariable aleatoria a lo

    largo del tiempo

    Objetivo

    Ajustar un modelo con el fin

    de hacer predicciones sobreel comportamiento futuro.

    Ideas preliminaresProcesos estocsticos

  • 8/10/2019 Procesos estocasticos_1

    5/39

    continuo

    de tipo discreto o de tipo continuo

    Adems la variable tiempo puede ser

    espacio de estados

    espacio de estados

    discreto

    Estados:

    Posibles

    valores quepuede tomar

    la variable

    aleatoria

    Procesos estocsticos (aleatorios)Definicin formal

  • 8/10/2019 Procesos estocasticos_1

    6/39

    Para cada t

    es una variable aleatoria.

    Para cada

    es una trayectoria del

    proceso.

    Un proceso estocstico

    puede considerarse

    tambin como un funcin

    de dos variables.

    De manera que a la pareja

    se le asocia el estado

    o

    Procesos estocsticos (aleatorios)Definicin formal

  • 8/10/2019 Procesos estocasticos_1

    7/39

    Si para instante t el proceso estocstico es..

    Xtes continua de estado continuo

    Xtes discreta de estado discreto

    Si el conjunto T es... La v. a. Xt es...

    continuo proceso estocstico de

    parmetro continuo

    discreto proceso estocstico de

    parmetro discreto

    Procesos estocsticos

  • 8/10/2019 Procesos estocasticos_1

    8/39

    Supongamos el espacio

    parametral:

    (Discreto)

    que interpretamos como

    tiempos.

    Entonces habr:

    variables aleatorias

    estado del sist

    es el valor del proceso o

    ema al

    tiempo n.

    Entonces para cada n, Xn

    Procesos estocsticosCaso sencillo tiempo discreto

  • 8/10/2019 Procesos estocasticos_1

    9/39

    Convencin:

    si el subndice es n, entonces los

    tiempos son discretos, y si el

    subndice es t, el tiempo se mide de

    manera continua

    El espacio parametral tambin

    puede ser un conjunto continuo

    Entonces el proceso es a

    tiempo continuo y se denota:

    Procesos estocsticosCaso tiempo continuo

  • 8/10/2019 Procesos estocasticos_1

    10/39

    Procesos estocsticos

  • 8/10/2019 Procesos estocasticos_1

    11/39

    Los posibles estados para la mquina son que estoperando o que est fuera de funcionamiento.

    Posible secuencia

    de cambios de

    estado a travs deltiempo para esa

    mquina.

    La verificacin se realizar al

    principio de cada da siendolos estados:

    "fuera de operacin" con el

    valor 0"en operacin" con el valor 1.

    Procesos estocsticosCadena - Ejemplo mquina en una fbrica

  • 8/10/2019 Procesos estocasticos_1

    12/39

    Seal telegrfica.

    Slo hay dos posibles

    estados (por ej. 1 y -1)

    pero la oportunidad del

    cambio de estado se da

    en cualquier instante en

    el tiempo, es decir, elinstante del cambio de

    estado es aleatorio.

    Procesos estocsticosProcesos de Saltos Puros - Ejemplo

  • 8/10/2019 Procesos estocasticos_1

    13/39

    seal de voz modulada

    en amplitud.

    Seal de voz vista en la

    pantalla de un

    osciloscopio.

    Esta seal acstica estransformada en una seal

    elctrica analgica que puede

    tomar cualquier valor en un

    intervalo continuo de estados.

    Procesos estocsticosProceso continuo - Ejemplo

  • 8/10/2019 Procesos estocasticos_1

    14/39

    distribucin de probabilidades, en general, distinta de las

    en la que cada variable Xi, i = 0, ..., n, tiene una

    otras variables.

    Una secuencia de variables que indique el valor del

    proceso en instantes sucesivos suele representarse de la

    siguiente manera:

    Procesos estocsticosProcesos de estado discreto

  • 8/10/2019 Procesos estocasticos_1

    15/39

    prob abi l idad de transicin

    o de cambio de estado.

    Principal inters

    en el caso

    discreto:

    * clculo deprobabilidades de

    ocupacin de

    cada estado a

    partir de las

    probabilidades decambio deestado.

    Procesos estocsticosProcesos de estado discreto

    Si en el instante n1 se est

    en el estado xn1con qu

    probabilidad se estar en el

    estado xn en el siguiente n?

    Esta probabilidad se denotar

    con

  • 8/10/2019 Procesos estocasticos_1

    16/39

    Probabilidades de

    ocupacin de estado

    Probabilidades de

    transicin o de cambio deestado.

    Otra notacin

    Procesos estocsticosProcesos de estado discreto

  • 8/10/2019 Procesos estocasticos_1

    17/39

    Otro probabilidad de inters es la de ocupar un cierto

    estado en un instante n, dado que en todos los instantes

    anteriores, desde n=0 hasta n1, se conoce en qu

    estados estuvo el proceso. Esto se puede escribir como:

    Ntese que esta probabilidad

    depende de toda la historiapasada del proceso, mientras

    que la probabilidad de transicin

    depende nicamente del estado

    actual que ocupe el proceso.

    Procesos estocsticosProcesos de estado discreto

  • 8/10/2019 Procesos estocasticos_1

    18/39

    Procesos de Markov

    Propiedad de Markov.

    Son procesos donde,

    suponiendo conocido el

    estado presente del sistema,

    los estados anteriores no

    tienen influencia en los

    estados futuros del sistema.

    Procesos estocsticosProcesos de estado discreto

  • 8/10/2019 Procesos estocasticos_1

    19/39

    Cadenas de Markov

    Aquellas Cadenas que cumplen la propiedad de

    Markov se llaman Cadenas de Markov.

    Procesos estocsticosProcesos de estado discreto

  • 8/10/2019 Procesos estocasticos_1

    20/39

    Cadenas de Markov

    Considere una mquina que ser

    revisado al inicio de cada da paraverificar si est operativa o si est

    daada.

    diagrama de estados

    Procesos estocsticosProcesos de estado discreto

  • 8/10/2019 Procesos estocasticos_1

    21/39

    Segn el cuento, en la Tierra de

    Oz nunca hay dos das buenos

    en sucesin. Despus de un da

    con buen tiempo, le sigue (conigual probabilidad) un da con

    lluvia o nieve. Del mismo modo,

    si nieva (o llueve), el da

    siguiente nevar (o llover) con

    probabilidad 1/2, pero si cambia

    el tiempo, solo la mitad de las

    veces ser un lindo da.

    EjemploEl clima en la Tierra de Oz

  • 8/10/2019 Procesos estocasticos_1

    22/39

    Primero encontremos la probabilidades de transicin, es

    decir las probabilidades de que teniendo cierto clima un da,

    al da siguiente se tenga otro clima.

    Indiquemos con b un da bueno, con uno lluvioso y n sinieva.

    EjemploEl clima en la Tierra de Oz

  • 8/10/2019 Procesos estocasticos_1

    23/39

    Resumiendo:

    Se le llama matriz detransicin (o transiciones).

    Veamos que:Los coeficientes son positivos.

    Si sumamos una fila el resultado es 1.

    En cambio la suma por columnas no da 1.

    EjemploEl clima en la Tierra de Oz

  • 8/10/2019 Procesos estocasticos_1

    24/39

    Una matriz estocstica derecha es una matriz cuadrada cada una de

    cuyas filas est formada por nmeros reales no negativos, sumando

    cada fila 1.

    Una matriz estocstica izquierda es una matriz cuadrada cada una

    de cuyas columnas est formada por nmeros reales no negativos,

    sumando cada columna 1.

    Una matriz doble estocstica es una matriz cuadrada donde todos los

    valores son no negativos y todas las filas y columnas suman 1.

  • 8/10/2019 Procesos estocasticos_1

    25/39

    En el siguiente momento

    volveremos a ese estado o a

    otro.

    Pasaremos de un estado a

    otro con cierta probabilidad.

    Solo depende del estado

    inmediato anterior.

    La probabilidad no cambiacon el transcurso del tiempo.

    Este es un ejemplo de una

    cadena de Markov

    Hay ciertos estados: b,l y n.

    En cada momento estamos en

    alguno de esos estados.

    EjemploEl clima en la Tierra de Oz

  • 8/10/2019 Procesos estocasticos_1

    26/39

    estar en el estado j dado

    La matriz de transicin

    Con la condicin (matriz

    estocstica.

    pijes la probabilidad de

    que est en el estado i.

    En cualquier paso puedeocurrir alguno de lossucesos E

    1, E

    2, . . . , E

    my

    Procesos estocsticosCadenas de Markov

  • 8/10/2019 Procesos estocasticos_1

    27/39

    Procesos estocsticosCadenas de Markov - Ejemplo 1

  • 8/10/2019 Procesos estocasticos_1

    28/39

    Las siguientes matrices son estocsticas?

    EjemploCadenas de Markov

  • 8/10/2019 Procesos estocasticos_1

    29/39

    PaseanteLa zona urbana de mi pueblo tiene 6

    cuadras de largo, que van de norte a

    sur.

    Estoy con ganas de deambular y pasar

    el tiempo, y como tengo una moneda,

    se me ocurre tirarla y caminar una

    cuadra hacia el norte si sale cara o unacuadra hacia el sur si sale cruz. Y

    contino este juego hasta salir de la

    zona urbana, ya sea hacia el norte o hacia

    el sur

    Procesos estocsticosCadenas de Markov - Ejemplo 2

  • 8/10/2019 Procesos estocasticos_1

    30/39

    Podemos pensar que los estados son 0,1,...,5,6, donde

    0 es la esquina sur donde empieza la zona urbana, 6 la

    esquina norte.

    La matriz de transicin puede escribirse entoncescomo:

    Al llegar al estado 0 o 6

    el "juego" se termina,

    por lo que ponemos un

    1 en la entradacorrespondiente

    indicando que ya nos

    quedamos para siempre

    en esa posicin.

    Procesos estocsticosCadenas de Markov - Ejemplo 2

  • 8/10/2019 Procesos estocasticos_1

    31/39

    En cada camino

    multiplicamos

    las probabilidades, y

    despus sumamos los

    caminos

    Supongamos que estando

    en un estado i lleguemos

    en dos pasos al estado j.

    Evidentemente en el

    primer paso estaremos

    en algn estado

    intermedio

    k (que puede ser i o j) y

    despus pasar de k a j

    Procesos estocsticosCadenas de Markov - Dos pasos, ejemplo.

  • 8/10/2019 Procesos estocasticos_1

    32/39

    Procesos estocsticosCadenas de Markov - Dos pasos, ejemplo.

  • 8/10/2019 Procesos estocasticos_1

    33/39

    Supongamos que estando en un estado i lleguemos envarios pasos al estado j.

    Entonces la matriz que

    contiene todos estosestados se llama:

    matriz de transicin depasos. n

    Nota

    La matriz P es de un paso

    es la probabilidad de

    transicin del estado i al

    estado j en n pasos

    Procesos estocsticosCadenas de Markov

  • 8/10/2019 Procesos estocasticos_1

    34/39

  • 8/10/2019 Procesos estocasticos_1

    35/39

    ms, podemos escribir:

    Matriz de transicin de n

    pasos.

    Propiedades

    Se puede obtener

    multiplicando la matriz de

    transicin de un paso.

    Puesto que para hacer n

    pasos necesitamos hacer

    n-1 pasos y luego otro

    En general:

    Procesos estocsticosCadenas de Markov

  • 8/10/2019 Procesos estocasticos_1

    36/39

    Procesos estocsticosCadenas de Markov - Probabilidades iniciales

  • 8/10/2019 Procesos estocasticos_1

    37/39

  • 8/10/2019 Procesos estocasticos_1

    38/39

    Procesos estocsticosCadenas de Markov - Probabilidades iniciales

  • 8/10/2019 Procesos estocasticos_1

    39/39

    Procesos estocsticosCadenas de Markov - Probabilidades iniciales