Cadenas Markov Terminado

Embed Size (px)

Citation preview

  • 7/29/2019 Cadenas Markov Terminado

    1/58

    CADENAS DEMARKOV

    FACULTAD DE CIENCIAS JURDICAS

    Y EMPRESARIALES

    ESCUELA DE ADMINISTRACION

    CADENA DE EVENTOS: ANALISIS DE MARKOV

    DOCENTE:

    ING. ECO. JESUS A. OLIVERA CACERES

    ESTUDIANTE:

    ZEGARRA GOMEZ, Edwin Francisco 2002-22777

    Cuarto A

    TACNA PERU

    2013

  • 7/29/2019 Cadenas Markov Terminado

    2/58

    CADENAS DE MARKOV UNJBG

    2

    INVESTIGACION OPERATIVA

    INDICE

    INTRODUCCION

    I. ANTECEDENTES........................................................................... 4

    II. CADENAS DE MARKOV ............................................................... 5

    1. Descripcin de una cadena de Markov .................................... 8

    2. Probabilidades de Transicin .................................................. 9

    3. Matriz de Transicin ................................................................ 10

    4. Clculo de las probabilidades de estado estable ....................... 13

    a. Probabilidad de transiciones estacionarias de estados

    Estables ............................................................................. 13

    5. Mtodo de la suma de flujos...................................................... 15

    6. Aplicacin a la Administracin : Cambio de Marca .................... 16

    7. Anlisis de Markov de Primer orden .......................................... 18

    8. Condiciones de Equilibrio .......................................................... 25

    9. Uso del anlisis de Markov por la administracin ..................... 12

    10.Aplicacin de las cadenas de Markov en las diferentes

    Materias ................................................................................... 28

    III. CONCLUSIONES .......................................................................... 56

    IV. REFERENCIAS ............................................................................. 57

    V. ANEXOS ........................................................................................ 58

  • 7/29/2019 Cadenas Markov Terminado

    3/58

    CADENAS DE MARKOV UNJBG

    3

    INVESTIGACION OPERATIVA

    INTRODUCCION

    Las cadenas de Markov estn destinadas a una clase de modelos de probabilidadque son tiles en una amplia variedad de ciencias. Las cadenas de Markov han

    encontrado aplicaciones en la biologa, la fsica, la demografa, la economa y, lo que

    es ms importante para nuestros propsitos, la administracin.

    La ciencia administrativa ha desarrollado mtodos de anlisis y herramientas

    cuantitativas para la toma de decisiones objetivas. Un factor importante que se debe

    considerar al seleccionar una herramienta de toma de decisiones es su grado de

    confiabilidad, ya que as la incertidumbre y el riesgo resultan menores.Una relacin de algunos elementos de apoyo cuantitativo en la toma de decisiones

    gerenciales es el anlisis de markov

    Las cadenas de Markov se pueden utilizar en modelos simples de valuacin de

    opciones para determinar cundo existe oportunidad de arbitraje, as como en el

    modelo de colapsos de una bolsa de valores o para determinar la volatilidad de

    precios.

  • 7/29/2019 Cadenas Markov Terminado

    4/58

    CADENAS DE MARKOV UNJBG

    4

    INVESTIGACION OPERATIVA

    ANTECEDENTES

    Andrei Andreevich Markov nace en Ryazan (Rusia) el 14 de junio de 1856 y muere en San

    Petersburgo en 1914, es el creador de las cadenas de Markov, uno de los conceptos ms

    importantes en la construccin de modelos en gran cantidad de campos que abarcan desde la

    sociologa a la fsica terica.

    Markov estudia en San Petersburgo y muestra un carcter fuerte que le causar problemas

    posteriormente con el rgimen zarista y con sus colegas de la Universidad de San Petersburgo.

    Era mal estudiante en todo menos en matemticas. Inici sus estudios universitarios de

    matemticas en 1874 y acab en 1878, siendo premiado con la medalla de oro al terminarlos.Realiz en la Universidad de San Petersburgo su carrera acadmica. Su tesis doctoral estuvo

    en el mbito de la teora de los nmeros, pero con la retirada de Chebyshev, en 1883, Markov

    pas a encargarse del curso sobre la teora de la probabilidad continuando con el mismo

    incluso despus de su retirada de la Universidad en 1905.

    Perteneci a la escuela matemtica de San Petersburgo fundada por Chebyshev, y junto a

    Liapunov lleg a ser una de las figuras ms eminentes de la misma en el campo de la

    probabilidad. Bernstein (1927), otro de los representantes de la escuela de San Petersburgo,

    deca de l:

    Sin duda el ms importante continuador de las ideas sobre probabilidad fue Markov, sus

    trabajos son modelos de rigor y claridad en la exposicin, y han contribuido en gran medida a

    transformar la teora de la probabilidad en uno de los ms perfectos campos de la matemtica y

    a aumentar la popularidad de los mtodos y las ideas de Chebyshev1

    1 http://estadisticamigable.blogspot.com/2010/08/andrei-marcov-1856-1922-en-el-157.html

    http://estadisticamigable.blogspot.com/2010/08/andrei-marcov-1856-1922-en-el-157.htmlhttp://estadisticamigable.blogspot.com/2010/08/andrei-marcov-1856-1922-en-el-157.html
  • 7/29/2019 Cadenas Markov Terminado

    5/58

    CADENAS DE MARKOV UNJBG

    5

    INVESTIGACION OPERATIVA

    CADENAS DE MARKOV

    Un tipo especial de procesos estocsticos de tiempo discreto se llama cadena de Markov. Una

    cadena de Markov es una serie de eventos, en la cual la probabilidad de que ocurra un evento

    depende del evento inmediato anterior. En efecto, las cadenas de este tipo tienen memoria

    Recuerdan el ultimo evento y esto condiciona las posibilidades de los eventos futuros esta

    dependencia del evento anterior distingue a las cadenas de Markov de las series de eventos

    independientes, como tirar una moneda al aire o un dado.

    En los negocios, las cadenas de Markov se han utilizado para analizar los patrones de compra

    de los deudores morosos, para planear las necesidades de personal y para analizar el

    reemplazo de equipo.2

    Los procesos de Markov o Cadena de Markov son procesos estocsticos que son tiles al

    estudiar la evolucin de ciertos sistemas en ensayos repetidos.

    Los ensayos son frecuentemente periodos sucesivos en los que no se puede determinar

    certidumbre del estado o resultado del sistema en cualquier lapso o intervalo de tiempo

    determinado. Se utilizan probabilidades de transicin para describir la forma en el que el

    sistema hace transacciones de un periodo al siguiente. Por ello se habla de la probabilidad deque el sistema se encuentre en un estado especifico en un periodo dado, que se encontraba en

    un estado en el periodo anterior.3

    Las cadenas de Markov permiten encontrar la probabilidad de que un sistema se encuentre en

    un estado en particular en un momento dado. Algo ms importante an, es que permite

    encontrar el promedio a la larga o las probabilidades de estado estable para cada estado.

    Con esta informacin se puede predecir el comportamiento del sistema a travs del tiempo.Esta es una herramienta de gran alcance del anlisis de la confiabilidad y puede ser utilizada

    en ms casos que cualquier otro mtodo. El mtodo de Markov se utiliza extensamente para

    2Charles A. Gallagher, Mtodos cuantitativos para la toma de decisiones en la administracin, Editorial Mc

    Graw Hill Mexico D.F., 1982 pag 330-331.3 http://sisbib.unmsm.edu.pe/bibvirtualdata/tesis/basic/cabanillas_ce/cap1.pdf

    http://sisbib.unmsm.edu.pe/bibvirtualdata/tesis/basic/cabanillas_ce/cap1.pdfhttp://sisbib.unmsm.edu.pe/bibvirtualdata/tesis/basic/cabanillas_ce/cap1.pdf
  • 7/29/2019 Cadenas Markov Terminado

    6/58

    CADENAS DE MARKOV UNJBG

    6

    INVESTIGACION OPERATIVA

    modelar sistemas con fallas y reparaciones con promedio constante. A excepcin de algunos

    casos especiales.4

    La caracterstica fundamental de una cadena de Markov es esta: La probabilidad de que el

    sistema bajo estudio este en una condicin particular depende solo de su condicin actual.

    Por ejemplo si se usa cadena de Markov como modelo de los siguientes sistemas, entonces:

    La probabilidad de que haya seis personas esperando para usar un cajero dentro de 30

    minutos depende solo de cuantos hay esperando ahora.

    La probabilidad de que cierto porcentaje de la prxima generacin de ratones delaboratorio tenga una enfermedad hereditaria depende solo del porcentaje de ratones

    que tienen la enfermedad en la generacin actual.5

    La probabilidad de que el da de maana este nublado, esto depende solo de las

    condiciones actuales del clima.

    Despus de un estudio sobre el clima, hemos visto que si un da est soleado, en el 70% de los

    casos el da siguiente continua soleado y en el 30% se pone nublado. En trminos de

    probabilidad, lo que nos sirve entonces para predecir el clima, vemos que la probabilidad de

    que contine soleado el da siguiente es 7 y la probabilidad de que al da siguiente est

    nublado es .3. Tambin nos fijamos en que si un da est nublado, la probabilidad de que est

    soleado el da siguiente es .6 y la probabilidad de que se ponga nublado es 4.

    Pregunta

    Hoy est nublado, cul es la probabilidad de que maana contine nublado? Cul es la

    probabilidad de que est nublado pasado maana?

    Podemos ilustrar esta situacin por medio de un diagrama de rbol:

    4http://www.unipamplona.edu.co/unipamplona/portalIG/home_10/recursos/general/documentos/pdf/16102009/18_a

    r_carolina_casan.pdf5 Libro 16 pag 568

  • 7/29/2019 Cadenas Markov Terminado

    7/58

    CADENAS DE MARKOV UNJBG

    7

    INVESTIGACION OPERATIVA

    Con la ayuda de la Figura 1 podemos predecir qu ocurrir maana si sabemos que hoy est

    nublado.Vemos que la probabilidad de que maana contine nublado es .4, es decir, si hiciramos esta

    prediccin muchas veces estaramos en lo correcto cerca del 40% de las veces. Para conocer

    la probabilidad de est nublado pasado maana buscamos en las hojas del rbol

    correspondientes al Tiempo pasado maana los lugares donde dice nublado. Hay dos hojas

    donde esto ocurre. Ahora lo que queda es determinar cmo desde el principio, desde la raz del

    rbol, podemos llegar all.

    Si hoy est nublado, para que pasado maana est nublado, podramos tener un da de

    maana soleado o nublado. As tenemos las siguientes secuencias en orden de (hoy, maana,pasado maana): (nublado, soleado, nublado) o (nublado, nublado, nublado) donde pasado

    maana es nublado. Estas secuencias son mutuamente excluyentes, corresponden a caminos

    distintos en el rbol, as tenemos que:

    P (pasado maana nublado | hoy nublado)

    = P ((nublado, soleado, nublado) o (nublado, nublado, nublado))

    = P (nublado, soleado, nublado) + P (nublado, nublado, nublado) = (.6 .3) + (.4 .4) = .34.

    Este resultado se obtuvo multiplicando las probabilidades condicionales a lo largo de los

    caminos desde hoy nublado hasta pasado maana nublado. No es necesario que seamos tanespecficos en trminos de hoy, maana o pasado maana, podemos darnos cuenta que lo

    realmente importante es el nmero de das que pasa entre una prediccin y otra.6

    6 http://www.infoamerica.org/documentos_pdf/markov.pdf

    http://www.infoamerica.org/documentos_pdf/markov.pdfhttp://www.infoamerica.org/documentos_pdf/markov.pdf
  • 7/29/2019 Cadenas Markov Terminado

    8/58

    CADENAS DE MARKOV UNJBG

    8

    INVESTIGACION OPERATIVA

    1. DESCRIPCION DE UNA CADENA DE MARKOV:

    En la figura 1 se muestra el proceso para generar una cadena de Markov. El generador de

    Markov produce uno de n eventos posibles, Ej, donde j = 1, 2,, n, a intervalos discretos detiempo (que no tienen que ser iguales) las probabilidades de ocurrencia para cada uno de

    estos eventos dependen del estado del generador. Este estado se describe por el ltimo evento

    Esto

    Generado. En la figura 1, el ltimo evento generado fue Ej, de manera que el generado se

    encuentra en el estado Sj.

    La Probabilidad de que Ek sea el siguiente evento generado es una probabilidad condicional; P

    (Ek/Sj). Esto se llama probabilidad de transicin del estado Sj al estado Ek. Para describir

    completamente una cadena de Markov es necesario saber el estado actual y todas las

    probabilidades de transicin.7

    7Charles A. Gallagher, Mtodos cuantitativos para la toma de decisiones en la administracin, Editorial McGraw Hill Mexico D.F., 1982 pg. 331

    Estado generador:

    Sj

    Movimiento

    Evento generado

    E7 E1 E4 E6 Ej

    TiempoT1 T2 T3 T4

    T5

    FIGURA 2

    Generador de Markov

  • 7/29/2019 Cadenas Markov Terminado

    9/58

    CADENAS DE MARKOV UNJBG

    9

    INVESTIGACION OPERATIVA

    2. PROBABILIDADES DE TRANSICION

    Una forma para describir una cadena de Markov es un diagrama de estados, como el que semuestra en la Figura 2. En esta se ilustra un sistema de Markov con cuatro estados posibles:

    S1, S2, S3, S4. La probabilidad condicional o de transicin de moverse de un estado a otro se

    indica en el diagrama. Para simplificar la notacin se utilizan subndices para el estado actual y

    el siguiente es decir P14 = P (S4/S1). Las flechas muestran las trayectorias de transicin que

    son posibles. En la figura se nota que no aparecen algunas trayectorias como la de S2 a S3.

    Su ausencia significa que esas trayectorias tienen probabilidad de ocurrencia igual que cero.8

    8Charles A. Gallagher, Mtodos cuantitativos para la toma de decisiones en la administracin, Editorial Mc

    Graw Hill Mexico D.F., 1982, pag. 332

    P44

    P33FIGURA 2

    Un diagrama de EstadosS1 S1

    S1 S1

    P31

    P13

    P12 P21 P43 P34

    P42

    P24

  • 7/29/2019 Cadenas Markov Terminado

    10/58

    CADENAS DE MARKOV UNJBG

    10

    INVESTIGACION OPERATIVA

    Existen muchas situaciones en las cuales es posible aplicar matrices, para esto consideremos

    situaciones en la que se separa a la poblacin en dos o ms categoras o estados.

    Por ejemplo, podemos separar los ciudadanos de un pas de acuerdo a: Sus ingresos, en las categoras: pobre, ingresos medio o rico.

    Las migraciones del campo a la ciudad; o del norte al sur.

    La movilidad intergeneracional de padres a hijos, en relacin al nivel educativo.

    La preferencia por una determinada marca de bebidas.

    En general al hablar de poblacin nos estaremos refiriendo a gente, pero esto no es esencial.

    Podemos clasificar los automviles de acuerdo a si funcionan o no, el riesgo de poner o

    cambiar nuestros ahorros de la AFP en un determinado tipo de fondo A, B, C, D; o bien,

    estudiar los patrones de cambio de uso de suelo en una ciudad de rpido crecimiento.Estamos interesados en cmo la distribucin de una poblacin entre estados puede cambiar

    durante un perodo de tiempo. Las matrices y su multiplicacin pueden desempear un papel

    importante en dichas consideraciones, para esto se utilizan las matrices de transicin.

    3. MATRICES DE TRANSICION:

    La forma ms cmoda de expresar la ley de probabilidad condicional de una cadena de Markov

    es mediante la llamada matriz de probabilidades de transicin P, o ms sencillamente, matriz

    de la cadena.La tendencia de una poblacin a moverse entre n estados se puede describir a veces mediante

    una matriz de n x n.

    Dicha matriz es cuadrada con tantas filas y columnas como estados tiene el sistema, y los

    elementos de la matriz representan la probabilidad de que el estado prximo sea el

    correspondiente a la columna si el estado actual es el correspondiente a la fila.

    Como el sistema debe evolucionar de t a alguno de los n estados posibles, las probabilidades

    de transicin cumpliran con la propiedad siguiente:

    Consideremos una poblacin distribuida entre n = 3 estados, que llamaremos estado 1, estado

    2 y estado 3. Se supone que conocemos la proporcin tij de la poblacin del estado i, que se

    mueve al estado j en determinado perodo de tiempo fijo. 9

    9 http://fbarreiro.com/joom2/index.php?option=com_content&view=article&id=53&Itemid=60

    http://fbarreiro.com/joom2/index.php?option=com_content&view=article&id=53&Itemid=60http://fbarreiro.com/joom2/index.php?option=com_content&view=article&id=53&Itemid=60
  • 7/29/2019 Cadenas Markov Terminado

    11/58

    CADENAS DE MARKOV UNJBG

    11

    INVESTIGACION OPERATIVA

    La matriz T = (tij) se llama matriz de transicin.

    Supongamos que la poblacin de un pas, est clasificada de acuerdo con los ingresos en

    Estado 1: pobreEstado 2: ingresos medios

    Estado 3: rico

    Supongamos que en cada perodo de 20 aos tenemos los siguientes datos para la poblacin

    y su descendencia:

    De la gente pobre, el 19% pas a ingresos medios, y el 1% a rica; de la gente con ingresos

    medios, el 15% pas a pobre, y el 10% a rica; de la gente rica, el 5% paso a pobre, y el 30%, a

    ingresos medios.

    Podemos armar una matriz de transicin de la siguiente manera:10

    10 http://fbarreiro.com/joom2/index.php?option=com_content&view=article&id=53&Itemid=60

    http://fbarreiro.com/joom2/index.php?option=com_content&view=article&id=53&Itemid=60http://fbarreiro.com/joom2/index.php?option=com_content&view=article&id=53&Itemid=60
  • 7/29/2019 Cadenas Markov Terminado

    12/58

    CADENAS DE MARKOV UNJBG

    12

    INVESTIGACION OPERATIVA

    Obsrvese que:

    1) Las entradas de la diagonal de la matriz representa la proporcin de la poblacin que no

    cambia de estado en un perodo de 20 aos;

    2) Un registro de la matriz da la proporcin de la poblacin del estado izquierdo del registro

    que pasa al estado derecho del registro en un perodo de 20 aos.

    3) La suma de los registros de cada fila de la matriz T es 1, pues la suma refleja el

    movimiento de toda la poblacin para el estado relacionado en la parte izquierda de la fila.

    Otra forma de presentacin de un proceso y su correspondiente matriz de transicin

    Donde la i representa el estado inicial de una transicin, j representa el estado final de una

    transicin, Pij representa la probabilidad de que el sistema estando en un estado i pase a un

    estado j.

  • 7/29/2019 Cadenas Markov Terminado

    13/58

    CADENAS DE MARKOV UNJBG

    13

    INVESTIGACION OPERATIVA

    1. Clculo de las probabilidades de estado estable:

    Las cadenas de Markov poseen una probabilidad notable en cuanto a que tienden a

    aproximarse a lo que se llama estado estable.Cuando una cadena de Markov ha llegado lo suficientemente lejos como estar cerca de

    estos lmites, se dice que ha alcanzado un estado estable. Adems, estos lmites son los

    mismos, independientemente del punto de partida del sistema.

    Es importante hacer notar que la existencia de una condicin de estado estable es una

    propiedad adicional de las cadenas de Markov. De ninguna manera afecta las

    probabilidades de transicin o la dependencia de cada estado en estado anterior. Los

    lmites de estado estable se refieren solo al porcentaje de tiempo a largo plazo que el

    sistema se encontrara en cada estado particular.En la mayora de las aplicaciones el estado estable tiene una gran importancia.

    1.1. Probabilidad de transiciones estacionarias de estados estables

    a) Teorema:11Sea P la matriz de transicin de una cadena de M estados. Existe entonces un vector tal

    que se establece que para cualquier estado inicial i.

    El vector a menudo se llama distribucin de estado estable, o tambin distribucin de

    equilibrio para la cadena de Markov. Para encontrar la distribucin de probabilidades de

    estacionario para una cadena dada cuya matriz de transicin es P, segn el teorema, paran grande y para toda i.

    (1) Como Pij (n + 1) = (rengln i de Pn )(columna j de P), podemos escribir

    (2) Ejemplo:

    Suponga que toda la industria de refrescos produce dos gaseosas. Cuando una persona ha

    comprado la gaseosa 1, hay una probabilidad de 90 % de que su siguiente compra sea de

    la gaseosa 1. Si una persona compr gaseosa 2, hay un 80 % de probabilidades que su

    prxima compra sea de gaseosa 2.

    Entonces:

    Al reemplazar la segunda ecuacin por la condicin, obtenemos el sistema

    11 www.itescam.edu.mx/principal/sylabus/fpdb/recursos/r55111.DOC

  • 7/29/2019 Cadenas Markov Terminado

    14/58

    CADENAS DE MARKOV UNJBG

    14

    INVESTIGACION OPERATIVA

    Al despejar resulta que Por lo tanto, despus de largo tiempo, hay probabilidad 2/3 de que

    una persona dada compre gaseosa 1 y 1/3 de probabilidad de que una persona compre

    gaseosa 2.Tiempos de primer pas:

    Con frecuencia es conveniente poder hacer afirmaciones en trminos de probabilidades

    sobre el nmero de transiciones que hace el proceso al ir de un estado i a un estado j por

    primera vez. Este lapso se llama tiempos de primer paso al ir del estado i al estado j.

    Cuando J=i, esta tiempo de primer paso es justo el nmero de transiciones hasta que el

    proceso regresa al estado inicial i. En este caso, el tiempo de primer paso se llama tiempo

    de recurrencia para el estado i.

    Para ilustrar estas definiciones, reconsidrese el ejemplo siguiente:Una tienda de cmaras tiene en almacn un modelo especial de cmara que se puede

    ordenar cada semana. Sean D1, D2, las demandas de esta cmara durante la primera,

    segunda semana, respectivamente. Se supone que las Di son variables aleatorias

    independientes e idnticamente distribuidas que tienen una distribucin de probabilidad

    conocida. Sea X0 el nmero de cmaras que se tiene en el momento de iniciar el proceso,

    X1 el nmero de cmaras que se tienen al final de la semana uno, X2 el nmero de

    cmaras al final de la semana dos, etc. Suponga que X0 = 3 . El sbado en la noche la

    tienda hace un pedido que le entregan el lunes en el momento de abrir la tienda. La tiendahace un pedido que le entregan el lunes en el momento de abrir la tienda. La tienda usa la

    siguiente poltica (s, S)1 para ordenar: si el nmero de cmaras en inventario al final de la

    semana es menor que s =1 (no hay cmaras en la tienda), ordenar (hasta) S=3. De otra

    manera, no coloca la orden (si se cuenta con una o ms cmaras en el almacn, no se

    hace el pedido). Se supone que las ventas se pierden cuando la demanda excede el

    inventario. Entonces, {X1} para t = 0, 1, es un proceso estocstico de la forma que se

    acaba de describir. Los estados posibles del proceso son los enteros 0, 1, 2, 3 que

    representan el nmero posible de cmaras en inventario al final de la semana.Donde Xt: es el nmero de cmaras en inventario al final de la semana t y se comienza con

    lo siguiente:

    En este caso, el tiempo de primer paso para ir al estado 3 al estado 1 es de 2 semanas, el

    tiempo de primer paso para ir del estado 3 al estado 0 es de 3 semanas y el tiempo de

    recurrencia del estado 3 es de 4 semanas.

  • 7/29/2019 Cadenas Markov Terminado

    15/58

    CADENAS DE MARKOV UNJBG

    15

    INVESTIGACION OPERATIVA

    En general, los tiempos de primer paso son variables aleatorias y, por lo tanto, tienen una

    distribucin de probabilidad asociada a ellos. Estas distribuciones de probabilidad

    dependen de las probabilidades de transicin del proceso. En particular, denota laprobabilidad de que el tiempo de primer paso del estado i al j sea igual a n. Se puede

    demostrar que estas probabilidades satisfacen las siguientes relaciones recursivas:

    Entonces se puede calcular la probabilidad de un tiempo de primer paso del estado i al j en

    n pasos, de manera recursiva, a partir de las probabilidades de transicin de un paso. En el

    ejemplo, la distribucin de probabilidad de los tiempos de primer paso del estado 3 al

    estado 0 se obtiene como sigue:

    Para i y j fijas, las son nmeros no negativos tales que:

    Esta suma puede ser menor que 1, lo que significa que un proceso que el iniciar seencuentra en el estado i puede no llegar nunca al estado j. Cuando la suma es igual a 1, las

    pueden considerarse como una distribucin de probabilidad para la variable aleatoria, el

    tiempo de primer pas.

    Para obtener el tiempo esperado de primer paso del estado i al estado j. Sea, que se define

    como:

    Entonces satisface, de manera nica, la ecuacin:

    Cuando i=j, se llama tiempo esperado de recurrencia.

    Al aplicarlo al ejemplo del inventario, estas ecuaciones se pueden usar para calcular eltiempo esperado hasta que ya no se tengan cmaras en el almacn, suponiendo que el

    proceso inicia cuando se tienen tres cmaras; es decir, se puede obtener el tiempo

    esperado de primer paso . Como todos los estados son recurrentes, el sistema de

    ecuaciones conduce a las expresiones

    La solucin simultnea de este sistema es:

    De manera que el tiempo esperado hasta que la tienda se queda sin cmaras es de 3.50

    semanas.

    2. Mtodo de la suma de flujos:Este mtodo est basado en el concepto de que todo lo que entra debe salir. El diagrama

    de estados se usa para presentar los flujos.

    En la figura se muestra de nuevo el ejemplo anterior de dos estados. Para cada estado

    puede escribirse una ecuacin tal que para el estado K se cumpla:

  • 7/29/2019 Cadenas Markov Terminado

    16/58

    CADENAS DE MARKOV UNJBG

    16

    INVESTIGACION OPERATIVA

    ( )

    ( )

    Ejemplo de dos estados:

    3. APLICACIN A LA ADMINISTRACION: CAMBIO DE MARCA

    Las compras de los consumidores estn influidas por la publicidad, el precio y muchos otros

    factores. Con frecuencia un factor clase es la ltima compra del consumidor. Si, por

    ejemplo, alguien compra un refrigerador marca Y y le da un buen servicio, quedara

    predispuesto a comprar otro refrigerador marca Y. De hecho, una investigacin de

    mercado puede determinar el grado de lealtad a la marca encuestando a los consumidores.

    En trminos de una cadena de Markov, los resultados de la investigacin son las

    probabilidades de transicin de seguir con la marca o de cambiar.

    En la siguiente figura se muestra un ejemplo de cadenas de Markov para el cambio de

    marca. En este ejemplo, la marca A es la marca de inters y la marca B representa todas

    las dems marcas. Los clientes son bastante leales, el 80 % de ellos son clientes que

    repiten. La oposicin conserva el 70% de sus clientes.

    Qu informacin puede obtenerse con el anlisis de Markov? Con el anlisis de transicin

    puede descubrirse que tan probable es que un cliente cambie despus de cierto nmero de

    ciclos. Pero el anlisis de estado estable es el ms til. Qu interpretacin dara el lector

    al promedio a largo plazo de estar en cualquiera de los estados? La de porcentajes de

    mercado! El promedio a la larga del estado A es el porcentaje de mercado que puede

    0.75

    0.7

    0.75

    S1

    S2

    0.25 0.25

  • 7/29/2019 Cadenas Markov Terminado

    17/58

    CADENAS DE MARKOV UNJBG

    17

    INVESTIGACION OPERATIVA

    esperar recibir la marca A. As, conociendo el grado de lealtad a la marca entre los clientes

    puede predecirse el porcentaje de mercado para el producto o servicio.

    Las ecuaciones de estado estable para el ejemplo de la figura son:P (A) = 0.8P (A) + 0.3P (B)

    P (B) = 0.2P (A) + 0.7P (B)

    P(A) + P (B) = 1

    La solucin de este sistema es:

    P(A) = 0.6

    P (B)= 0.4Grafico: Cambio de marca

    0.7

    0.7

    0.8

    A

    B

    0.20.3

    Marca A Marca B

    De: Marca A

    Marca B0.8 0.2

    0.3 0.7

  • 7/29/2019 Cadenas Markov Terminado

    18/58

    CADENAS DE MARKOV UNJBG

    18

    INVESTIGACION OPERATIVA

    ANALISIS DE MARKOV DE PRIMER ORDEN

    El proceso de Markov tiene varios rdenes, y el primero depende de los resultados delltimo acontecimiento (selecciones de marcas por los clientes en ese perodo), y no de

    cualquier comportamiento previo de compras para la probabilidad del acontecimiento siguiente

    (selecciones de los clientes para el prximo perodo).

    Un anlisis de Markov de segundo orden supone que las selecciones de marcas especficas

    para el prximo perodo dependern de las selecciones de marcas hechas por los clientes

    durante los dos perodos anteriores.

    De modo semejante un proceso de Markov de tercer orden, estudia la preferencia de los

    clientes durante los tres ltimos perodos, a fin de pronosticar su comportamiento durante elperodo siguiente hacia determinadas marcas.

    Muchos estudios de procesos de mercados han demostrado que es vlido utilizar las

    suposiciones de primer orden para fines de pronstico.

    Los datos indican que las preferencias de los clientes de determinadas marcas, siguen un

    patrn bastante estable. En realidad la matriz de probabilidades de transicin permanece

    estable o casi estable durante cierto perodo.12

    I Procesos de Markov

    Princip io de Markov:

    Cuando una probabilidad condicional depende nicamente del suceso inmediatamente anterior,

    cumple con el Principio de Markov de Primer Orden, es decir.

    ijpitXjtXPitXKXKXjtXP ))()1(())(,.....,)1(,)0()1(( 10

    Def in ic iones en los Procesos de Markov d e Pr imer Orden:

    Estados: Las condiciones en las cuales se encuentra un ente sucesos posibles.

    Ensayos: Las ocurrencias repetidas de un evento que se estudia.

    12Robert J. Thierauf; Richard A. Grosse, Toma de Decisiones por medio de la Investigacin de Operaciones, Editorial LIMUSAS.A. de C.V, Mexico D.F., 1991, pags. 404-405

  • 7/29/2019 Cadenas Markov Terminado

    19/58

    CADENAS DE MARKOV UNJBG

    19

    INVESTIGACION OPERATIVA

    Probabilidad de Transicin: La probabilidad de pasar de un estado actual al siguiente en un

    perodo tiempo, y se denota porpij( la probabilidad de pasar del estado i al estadoj en una

    transicin perodo)

    1. Caractersticas de los Procesos de Markov de Primer Orden:

    Se pueden usar como modelo de un proceso fsico econmico que tenga las siguientes

    propiedades:

    a) Que la probabilidad cumpla con el principio de Markov.

    b) Existencia de un nmero finito de estados.

    c) Las pijson constante con respecto al tiempo perodo.d) Ensayos en perodos iguales.

    Si un suceso depende de otro adems del inmediatamente anterior, este es un proceso de

    Markov de mayor orden. Por ejemplo, Un proceso de segundo orden describe un proceso en el

    cual el suceso depende de los dos sucesos anteriores.

    Los procesos de Markov tambin se les llaman Cadenas de Markov.

    Notaciones que utilizaremos:

    pij = probabilidad de transicin en un perodo.

    P = [pij]nxnmatriz de transicin formada por los valores de pij , donde cada fila representa el

    estado inicial donde se parte y las columna el estado al que se ira en un perodo.

    ))0()(()( iXjkXPp kij Representa la probabilidad de ir del estado i al estado j en k

    perodos.

    P(k)=[ )(kijp ]nxnla matriz de transicin de kperodos.

    Si(t) = probabilidad de encontrarse en el estado i en el perodo t.

    S(t) =(S1(t) , S2(t) , . . . . , Sn(t)) vector de probabilidad de estado en el perodo t. Para n

    estados.

  • 7/29/2019 Cadenas Markov Terminado

    20/58

    CADENAS DE MARKOV UNJBG

    20

    INVESTIGACION OPERATIVA

    Los sucesos que cumplan con un proceso de Markov, se pueden representar por medio de un

    esquema donde los nodos indiquen los estados y arcos dirigidos de nodo a nodo con un

    nmero que representa la probabilidad de transicin de ir de un estado a otro, por medio deuna matriz de transicin.

    Ejemplo:

    4.04.02.0

    3.04.03.0

    5.03.02.0

    P

    Para calcular:

    )1)0(1)2(()2(11 XXPp = p11.p11+ p12.p21+ p13.p31

    = 0, 2.0, 2+0, 3.0, 3+0, 5.0,2 = 0, 23

    )1)0(2)2(()2(

    12 XXPp = p11.p12+ p12.p22+ p13.p32

    = 0, 2.0, 3+0, 3.0, 4+0, 5.0,4 = 0, 38

    )1)0(3)2(()2(13 XXPp = p11.p13+ p12.p23+ p13.p33

    = 0,2.0, 5+0,3.0, 3+0,5.0, 4 = 0,39

    Luego )2(11p +)2(

    12p +)2(

    13p =1

    Otra forma es usando el vector de probabilidades y la matriz de transicin, es decir:

    S (0) = (1, 0, 0) S (1) = S (0).P = (0,2; 0,3; 0,5)

    S (2) =S (1).P = (0,23; 0,38; 0,39)

  • 7/29/2019 Cadenas Markov Terminado

    21/58

    CADENAS DE MARKOV UNJBG

    21

    INVESTIGACION OPERATIVA

    2. Cadenas de Markov Ergdicas cadenas irreductibles.

    Describen matemticamente un proceso en el cual es posible avanzar desde un estado hasta

    cualquier otro estado. No es necesario que esto sea posible en un paso.

    Una cadena ergdica es regular: Si para alguna potencia de la matriz de transicin tiene

    nicamente elementos positivos de probabilidad (diferente de cero)

    Ejemplo 1:

    6.04.00

    7.003.0

    05.05.0

    P

    64.024.012.0

    42.043.015.0

    35.025.040.02

    P

    Luego es regular (y por lo tanto ergdica)

    Ejemplo 2:

    5.005.00

    04.006.0

    7.003.00

    06.004.0

    P

    60.0040.00

    052.0048.0

    56.0044.00

    048.0052.0

    2P

    hh

    rr

    qq

    pp

    P

    100

    010

    100

    010

    4

    Esta matriz repite continuamente este patrn para todas las potencias de P; por consiguiente

    no es regular ni tampoco ergdica.

    3. Propiedades de las Cadenas de Markov.

    1.- Las probabilidades de estados deben ser igual a uno, es decir.

    S1 (t)+S2 (t)+. . . . ,+Sn (t) = 1 para n estados.

    2.- Para cada fila de la matriz P se cumple: pi1+pi2+...... +pin=1 para todo

    i= 1, 2,..., n

    3.- Las transiciones de un perodo al siguiente se obtienen de la siguiente ecuacin: S (t) =

    S (t-1).P por lo tanto S (t) = S (0).Pt

  • 7/29/2019 Cadenas Markov Terminado

    22/58

    CADENAS DE MARKOV UNJBG

    22

    INVESTIGACION OPERATIVA

    4.- Si S (t+1) = S(t) para t K, Entonces se dice que el sistema se estabiliza que los

    estados son estacionarios estables. Esto implica que S = S.P, es decir. El vector de estado

    estacionario sigue siendo igual despus de la transicin t.

    Ejemplo para calcular el vector de equilibrio o de estado estacionario.

    Sea:

    5/15/4

    5/25/3P

    2/92 5/1 6

    2/82 5/1 72

    P

    1/4 11 2/8 4

    1/4 21 2/8 33

    P

    625/209625/416

    625/208625/4174

    P

    3 1/1 0 4 13 1 2 5/2 0 8 4

    3 1/1 0 4 23 1 2 5/2 0 8 35

    P

    3/13/2

    3/13/26

    P

    3/13/2

    3/13/27P El proceso se estabiliza en el perodo 6

    Otra forma:

    Se calcula el siguiente sistema

    1.

    iS

    PSSen este caso

    1

    2,04,0

    8,06,0

    21

    212

    21

    SS

    SSS

    SSS

    y

    queda

    1

    08,04,0

    21

    21

    SS

    SS

    Cuya solucin es: S1 = 2/3 y S2 = 1/3

    Observacin: Las ecuaciones que se obtienen del desarrollo de S =S.P Siempre hay una

    ecuacin que es combinacin lineal de las dems ecuaciones, por lo tanto se omite para que el

    sistema quede con n ecuaciones y n variables.

    4. Estados Absorbentes:

    Es aquel estado que tiene una probabilidad de ser abandonado igual a cero, es decir. Una vez

    en l es imposible dejarlo. Esto quiere decir:

    Si ies un estado absorbente si se cumple que pij=0 si i jy pii=1.

  • 7/29/2019 Cadenas Markov Terminado

    23/58

    CADENAS DE MARKOV UNJBG

    23

    INVESTIGACION OPERATIVA

    Una cadena de Markov es Absorbente:

    Si se cumple:

    a) Tiene por lo menos un estado Absorbente.

    b) Es posible ir de cada estado no absorbente hasta por lo menos un estado absorbente.

    No es necesario efectuar esta transicin en un paso; ni es necesario tener la posibilidad

    de alcanzar cada estado absorbente a partir de cualquier estado no absorbente.

    5. Anlisis de las cadenas de Markov Absorbentes.

    A partir del anlisis de estas cadenas, es posible determinar los siguientes datos:

    1) El nmero esperado de pasos antes de que el proceso sea absorbido.

    2) El nmero esperado de veces que el proceso est en cualquier estado dado no

    absorbente.

    3) La probabilidad de absorcin por cualquier estado absorbente dado.

    El primer paso del anlisis es construir una submatriz H de P formada de estados no

    absorbentes a estados no absorbentes. Luego H da las probabilidades de ir desde cualquier

    estado no absorbente hasta otro estado no absorbente en un paso exactamente, H2 da las

    probabilidades de ir desde cualquier estado no absorbente hasta otro estado no absorbente en

    dos pasos exactamente. H3da informacin similar para tres pasos, etc. Por lo tanto, Hnda esta

    misma informacin para n pasos.

    Para hallar el nmero esperado de pasos antes que el proceso sea absorbido, consiste en

    calcular el nmero esperado de veces que el proceso puede estar en cada estado no

    absorbente y sumarlos. Esto totalizara el nmero de pasos antes de que el proceso fuera

    absorbido y por consiguiente el nmero esperado de pasos hacia la absorcin. Luego:

    I+H+H2+H3+ .. = (I-H)-1 =Q Por consiguiente Q representa el nmero esperado de perodos

    que el sistema estar en cada estado no absorbente antes de la absorcin, por lo tanto la suma

    de cada fila de Q representa el promedio de perodos que transcurren antes de ir a un estado

    absorbente.

  • 7/29/2019 Cadenas Markov Terminado

    24/58

    CADENAS DE MARKOV UNJBG

    24

    INVESTIGACION OPERATIVA

    Para hallar la probabilidad de absorcin por cualquier estado absorbente dado, se emplea una

    lgica similar en el anlisis. Se construye una submatriz G de P formada de estados no

    absorbente a estados absorbentes y representa la probabilidad de ir de un estado noabsorbente a un estado absorbente en un paso exactamente, H.G representa la probabilidad

    de ir de un estado no absorbente a un estado absorbente en dos pasos exactamente y as

    sucesivamente. Por lo tanto G+H.G+H2.G+..... = (I+H+H2+H3+..).G = (I-H)-1.G = Q.G =R, Y

    esta matriz representa la proporcin probabilidad en que un estado no absorbente pasa a un

    estado absorbente.

    Nmero de pasos para alcanzar por primera vez un estado determinado en cadenas no

    absorbentes (Tiempo de la primera transicin)

    Si definimos a fijcomo el promedio de perodos que transcurre antes de cambiar de un estado i

    al estadoj por primera vez. Se tiene que

    jk

    kjikij fpf .1 y ademsi

    iiS

    f1

    Otro mtodo: Consiste en transformar en estado absorbente el estado al cual queremos ir por

    primera vez, por ejemplo si j es el estado que queremos llegar por primera vez, para ello la

    matriz P se modifica de manera que el estadoj aparezca como estado absorbente y obtener la

    matriz Q de esta transformacin y por lo tanto iAiA qf donde A representa el estadoabsorbente.

    Valor Econmico Esperado en un Proceso cadena de Markov.

    En un proceso de Markov estar en cada estado genera un costo beneficio, por lo tanto el

    valor econmico esperado se define:

    iiii

    i Sc

    f

    cCE .)( , es decir, el valor econmico por la probabilidad del sistema

    estabilizado.13

    13http://ares.unimet.edu.ve/matematica/bpma31/Modelos%20Estocasticos/PROCESOS%20DE%20MARKOV.doc

  • 7/29/2019 Cadenas Markov Terminado

    25/58

    CADENAS DE MARKOV UNJBG

    25

    INVESTIGACION OPERATIVA

    VI. CONDICIONES DE EQULIBRIO

    Solo puede haber una condicin de equilibrio si ninguno de los competidores altera la matriz

    de probabilidades de transicin .Es razonable suponer que podra llegarse en el futuro a unestado de equilibrio, con respecto a las participaciones de mercado. El intercambio de clientes

    en trminos de retencin, ganancias o prdidas, seria esttico en el momento en que se

    lograra el equilibrio .En trminos de mercadotecnia cuales son las participaciones de

    mercado final o de equilibrio?

    Pueden emplearse varias matrices de probabilidades de transicin para demostrar las

    condiciones de equilibrio.

    El ejemplo ms comn es aqul en que ninguna empresa obtiene toda la clientela o sea

    que en un total de tres empresas, ni una ni dos de ellas se apoderan de todo el mercado.Hay cierta condicin final de equilibrio que se desarrolla y continua basndose en una matriz

    estable de probabilidades de transicin.

    En casi todos los problemas de markov, ordinariamente las prdidas y ganancias son de gran

    magnitud en los primeros periodos.(14)

    VII. USO DEL ANALISIS DE MARKOV POR LA ADMINISTRACION

    En gran parte, el material precedente ha tratado la metodologa del anlisis de markov, que

    bsicamente es un instrumento de mercadotecnia de la administracin, para determinar la

    estrategia de mercadotecnia ms apropiada para la empresa. Esto puede demostrarse con elejemplo siguiente, en el que inicialmente cada empresa cuenta con la tercera parte del

    mercado.

    7.1.3.

    2.6.2.

    1.3.5.

    Suponiendo que la matriz de probabilidades de transicin no cambie , las participaciones de

    equilibrio o a la larga de mercado de A,B y C, sern de 27.8, 33.3 y 38.9 por ciento ,

    14 J. Thierauf Robert , A. Grosse Richard.Toma de decisiones por medio de Investigacion de

    Operaciones. pg. 410.

    A B

    Retencin y gananciaRetencin y prdida

    A

    B

    C

  • 7/29/2019 Cadenas Markov Terminado

    26/58

    CADENAS DE MARKOV UNJBG

    26

    INVESTIGACION OPERATIVA

    respectivamente .Sabiendo que espera perder una parte de su mercado en el futuro, el

    vendedor A puede hacer algo con respecto a la situacin actual, para impedir que esto

    ocurra .A dispone de dos estrategias posibles: puede tratar de retener un mayor nmero desus propios clientes (estrategia 1), o puede encaminar sus esfuerzos de

    mercadotecnia(publicidad y ventas personales)hacia los compradores que se cambian a los

    vendedores B y C (estrategia 2).

    Refirindonos a la estrategia 1, el vendedor A podra tratar de retener un mayor nmero de

    clientes, digamos de .5 a .7. Ese cambio supone que A disminuye sus prdidas de clientes a

    favor de B y C. La nueva matriz de probabilidades de transicin es:

    7.1.2.

    2.6.1.

    1.3.7.

    Las nuevas participaciones de equilibrio de mercado son: A, 38.6, B , 27.0 y C, 34.4 por

    ciento. Actualmente, esos esfuerzos especficos de ventas han dado por resultado una

    posicin ms favorable a la larga para el vendedor A.

    La segunda estrategia (del vendedor A, que encamina sus esfuerzos de ventas a loscompradores que cambian a B y a C), se muestra en la matriz revisada de probabilidades de

    transicin:

    7.5.0.3.

    1.6.2.

    2.35.5.

    Los clculos de las participaciones de equilibrio de mercado son: A, 32.6, B, 19.0, y C, 84.4

    por ciento.

    Podemos preguntar :Cul es la mejor estrategia para el vendedor A? el factor decisivo es el

    factor de costo de los esfuerzos de ventas , si todos los dems permanecen iguales .Si los

    A B

    A BA

    B

    C

    AB

    C

  • 7/29/2019 Cadenas Markov Terminado

    27/58

    CADENAS DE MARKOV UNJBG

    27

    INVESTIGACION OPERATIVA

    de las dos estrategias son iguales, evidentemente la estrategia 1 ser la mejor .Sin embargo ,

    cuando los factores de costo del esfuerzo de ventas no son iguales , la seleccin de la

    respuesta apropiada depender del anlisis marginal , los ingresos adicionales comparadoscon los costos adicionales.

    El anlisis Markov no se limita en modo alguno a determinar las participaciones de mercado

    a corto plazo y a largo plazo .Muchas compaas estn usando las cadenas de markov como

    ayuda para el anlisis de las necesidades de mano de obra de su grupo de vendedores. Cada

    ao, hay empresas que esperan perder una porcin de su grupo de vendedores debido a

    renuncias, retiros o muertes. Los vendedores actuales tienen diferentes niveles de

    experiencia, instruccin y capacidad. Una empresa tiene que contratar nuevos elementos para

    remplazar los que se van , y otros ms para satisfacer sus crecientes requerimientos .La altagerencia se enfrenta al problema de calcular las futuras necesidades de mano de obra , de

    acuerdo con la edad y la clase de servicio , en vista de las caractersticas del movimiento de

    personal y del crecimiento planeado de las ventas .

    El primer paso consiste en calcular los porcentajes de retencin de los vendedores en las

    diversas clases de servicio y de edad .Esos porcentajes calculados se utilizan en el anlisis

    de Markov para proyectar las futuras caractersticas de la fuerza de vendedores , si no se

    contratan nuevos elementos .Se analizan los patrones alternativos de reclutamiento con

    respecto a su efecto en la composicin de la futura fuerza de ventas y probable nivel deventas .Para cierta meta de ventas, puede recomendarse a la administracin superior la

    cantidad mnima y el tipo de vendedores que haya reclutar cada ao. El anlisis de Markov

    tambin puede aplicarse a las dems funciones principales de la empresa, desde el punto de

    vista de las necesidades de personal.

    Otras reas donde se han aplicado la cadena de Markov, son las estimaciones de las

    tolerancias para cuentas dudosas en el campo de contabilidad, y la introduccin de un nuevo

    producto. Con relacin a lo segundo ,una empresa quiere saber, por ejemplo , como se

    vender su nuevo producto , un limpiador para cuartos de bao , cuando se ponga en losestantes de un supermercado , al lado de otros limpiadores para bao. Algunos pueden ser

    lquidos en botella, otros pueden ser en polvos en lastas de fibra, cremas en recipientes de

    plstico, o en forma de aerosoles. Generalmente esa situacin requiere la construccin de

    modelos matemticos sobre la forma en que pueda cambiar o cambiarse la lealtad de los

    clientes a determinado producto. En realidad, los matemticos de la empresa tendrn que

  • 7/29/2019 Cadenas Markov Terminado

    28/58

    CADENAS DE MARKOV UNJBG

    28

    INVESTIGACION OPERATIVA

    expresar la lealtad de los clientes de Markov que muestren el comportamiento de

    intercambio de los clientes.15

    APLICACIN DE LAS CADENAS DE MARKOV A LAS DIFERENTES MATERIAS

    a) Fsica

    Los sistemas Markovian aparecen extensivamente adentro fsica, particularmente mecnicos

    estadsticos, siempre que las probabilidades se utilicen para representar los detalles

    desconocidos o unmodelled del sistema, si puede ser asumido que las dinmicas son tiempo-invariantes, y que ninguna historia relevante necesita ser considerada que no se incluye ya en

    la descripcin del estado.

    b) Prueba

    Varios tericos han propuesto la idea de la prueba estadstica de la cadena de Markov, un

    mtodo de conjoining cadenas de Markov para formar una manta de Markov, arreglando

    estas cadenas en varias capas recurrentes (wafering) y produciendo sistemas ms eficientes

    de la prueba - muestras - como reemplazo para la prueba exhaustiva. MCSTs tambin tiene

    aplicaciones en redes estado-basadas temporales; Chilukuri y otros. 'redes temporales dadas

    derecho papel del razonamiento de la incertidumbre de s las para la fusin de la evidencia con

    los usos para oponerse la deteccin y seguir (ScienceDirect) dan un estudio excelente del

    fondo y de caso para aplicar MCSTs a una gama de usos ms amplia.

    c) Teora que hace cola

    Las cadenas de Markov se pueden tambin utilizar para modelar varios procesos adentroteora que hace cola y estadstica.[2]. Claude Shannon papel famoso 1948 Una teora

    matemtica de la comunicacin, de que en un solo paso cre el campo teora de informacin,

    15 J. Thierauf Robert , A. Grosse Richard.Toma de decisiones por medio de Investigacion de

    Operaciones. pg. 418.

    http://www.worldlingo.com/ma/enwiki/es/Physicshttp://www.worldlingo.com/ma/enwiki/es/Statistical_mechanicshttp://www.worldlingo.com/ma/enwiki/es/Statistical_mechanicshttp://www.worldlingo.com/ma/enwiki/es/Queueing_theoryhttp://www.worldlingo.com/ma/enwiki/es/Statisticshttp://www.worldlingo.com/ma/enwiki/es/Markov_chain#cite_note-CTCN-1http://www.worldlingo.com/ma/enwiki/es/Markov_chain#cite_note-CTCN-1http://www.worldlingo.com/ma/enwiki/es/Markov_chain#cite_note-CTCN-1http://www.worldlingo.com/ma/enwiki/es/Claude_Shannonhttp://www.worldlingo.com/ma/enwiki/es/A_Mathematical_Theory_of_Communicationhttp://www.worldlingo.com/ma/enwiki/es/A_Mathematical_Theory_of_Communicationhttp://www.worldlingo.com/ma/enwiki/es/A_Mathematical_Theory_of_Communicationhttp://www.worldlingo.com/ma/enwiki/es/Information_theoryhttp://www.worldlingo.com/ma/enwiki/es/Information_theoryhttp://www.worldlingo.com/ma/enwiki/es/A_Mathematical_Theory_of_Communicationhttp://www.worldlingo.com/ma/enwiki/es/A_Mathematical_Theory_of_Communicationhttp://www.worldlingo.com/ma/enwiki/es/Claude_Shannonhttp://www.worldlingo.com/ma/enwiki/es/Markov_chain#cite_note-CTCN-1http://www.worldlingo.com/ma/enwiki/es/Statisticshttp://www.worldlingo.com/ma/enwiki/es/Queueing_theoryhttp://www.worldlingo.com/ma/enwiki/es/Statistical_mechanicshttp://www.worldlingo.com/ma/enwiki/es/Statistical_mechanicshttp://www.worldlingo.com/ma/enwiki/es/Physics
  • 7/29/2019 Cadenas Markov Terminado

    29/58

    CADENAS DE MARKOV UNJBG

    29

    INVESTIGACION OPERATIVA

    se abre introduciendo el concepto de entropa con modelar de Markov de la lengua inglesa.

    Tales modelos idealizados pueden capturar muchas de las regularidades estadsticas de

    sistemas. Incluso sin describir la estructura completa del sistema perfectamente, tales modelosde la seal pueden hacer muy eficaz posible compresin de datos por codificacin de la

    entropa tcnicas por ejemplo codificacin aritmtica. Tambin permiten la valoracin eficaz del

    estado y reconocimiento de patrn. Los sistemas de telfono mvil del mundo dependen de

    Algoritmo de Viterbi para error-correction, mientras que modelos ocultados de Markov se

    utilizan extensivamente adentro reconocimiento de discurso y tambin adentro bioinformatics,

    por ejemplo para la regin de la codificacin/la prediccin del gene. Las cadenas de Markov

    tambin desempean un papel importante adentro el aprender del refuerzo.

    d) Usos del Internet

    PageRank de un Web page segn lo utilizado cerca Google es definido por una cadena de

    Markov. Es la probabilidad a estar en la pgina i en la distribucin inmvil en la cadena de

    Markov siguiente en todos los Web pages (sabidos). Si Nes el nmero de Web pages sabidos,

    y una pgina itiene ki los acoplamientos entonces tiene probabilidad de la transicin para todas

    las pginas a las cuales se ligan y para todas las pginas que no son se lig a. El parmetro q

    se toma para ser cerca de 0.15.

    Los modelos de Markov tambin se han utilizado para analizar el comportamiento de la

    navegacin de la tela de usuarios. La transicin del acoplamiento de la tela de un usuario en un

    Web site particular se puede modelar usando los modelos primeros o second-order de Markov

    y se puede utilizar hacer predicciones con respecto a la navegacin futura y personalizar el

    Web page para un usuario individual.

    e) Estadstico

    Los mtodos de la cadena de Markov tambin han llegado a ser muy importantes para generar

    secuencias de nmeros al azar para reflejar exactamente distribuciones deseadas muy

    complicadas de la probabilidad, va un proceso llamado Cadena de Markov Monte Carlo

    (MCMC). Estos ltimos aos esto tiene revolutionised la factibilidad de Inferencia Bayesian

    mtodos, permitiendo una amplia gama de distribuciones posteriores ser simulado y sus

    parmetros ser encontrados numricamente.

    http://www.worldlingo.com/ma/enwiki/es/Information_entropyhttp://www.worldlingo.com/ma/enwiki/es/Data_compressionhttp://www.worldlingo.com/ma/enwiki/es/Entropy_encodinghttp://www.worldlingo.com/ma/enwiki/es/Entropy_encodinghttp://www.worldlingo.com/ma/enwiki/es/Arithmetic_codinghttp://www.worldlingo.com/ma/enwiki/es/Pattern_recognitionhttp://www.worldlingo.com/ma/enwiki/es/Viterbi_algorithmhttp://www.worldlingo.com/ma/enwiki/es/Hidden_Markov_modelhttp://www.worldlingo.com/ma/enwiki/es/Speech_recognitionhttp://www.worldlingo.com/ma/enwiki/es/Bioinformaticshttp://www.worldlingo.com/ma/enwiki/es/Reinforcement_learninghttp://www.worldlingo.com/ma/enwiki/es/PageRankhttp://www.worldlingo.com/ma/enwiki/es/Googlehttp://www.worldlingo.com/ma/enwiki/es/Markov_chain_Monte_Carlohttp://www.worldlingo.com/ma/enwiki/es/Bayesian_inferencehttp://www.worldlingo.com/ma/enwiki/es/Posterior_probabilityhttp://www.worldlingo.com/ma/enwiki/es/Posterior_probabilityhttp://www.worldlingo.com/ma/enwiki/es/Bayesian_inferencehttp://www.worldlingo.com/ma/enwiki/es/Markov_chain_Monte_Carlohttp://www.worldlingo.com/ma/enwiki/es/Googlehttp://www.worldlingo.com/ma/enwiki/es/PageRankhttp://www.worldlingo.com/ma/enwiki/es/Reinforcement_learninghttp://www.worldlingo.com/ma/enwiki/es/Bioinformaticshttp://www.worldlingo.com/ma/enwiki/es/Speech_recognitionhttp://www.worldlingo.com/ma/enwiki/es/Hidden_Markov_modelhttp://www.worldlingo.com/ma/enwiki/es/Viterbi_algorithmhttp://www.worldlingo.com/ma/enwiki/es/Pattern_recognitionhttp://www.worldlingo.com/ma/enwiki/es/Arithmetic_codinghttp://www.worldlingo.com/ma/enwiki/es/Entropy_encodinghttp://www.worldlingo.com/ma/enwiki/es/Entropy_encodinghttp://www.worldlingo.com/ma/enwiki/es/Data_compressionhttp://www.worldlingo.com/ma/enwiki/es/Information_entropy
  • 7/29/2019 Cadenas Markov Terminado

    30/58

    CADENAS DE MARKOV UNJBG

    30

    INVESTIGACION OPERATIVA

    f) Economa

    La macroeconoma dinmica utiliza pesadamente cadena de Markov.

    g) Biologa matemtica

    Las cadenas de Markov tambin tienen muchos usos en modelar biolgico, particularmente

    procesos de la poblacin, que son tiles en modelar los procesos que son (por lo menos)

    anlogos a las poblaciones biolgicas. Matriz de Leslie es un tal ejemplo, aunque algunas de

    sus entradas no son probabilidades (pueden ser 1 mayor que). Otro ejemplo importante es el

    modelar de la forma de la clula en dividir las hojas de clulas epiteliales]. La distribucin de

    formas -- predominante hexagonal -- era un misterio de muchos aos hasta que fue explicadopor un modelo simple de Markov, donde est su nmero el estado de una clula de lados. La

    evidencia emprica de ranas, de moscas de fruta, y del hydra ms futuro sugiere que la

    distribucin inmvil de la forma de la clula sea exhibida por casi todos los animales

    multicelulares

    h) Juego

    Las cadenas de Markov se pueden utilizar para modelar muchos juegos de la ocasin. Los

    juegos de los nios Serpientes y escalas y Hi Ho La Cereza-o ", por ejemplo, es

    representada exactamente por cadenas de Markov. En cada vuelta, el jugador sale en un

    estado dado (en un cuadrado dado) y de all ha fijado probabilidades de trasladarse a ciertos

    otros estados (cuadrados).

    i) Bisbol

    Los modelos de las cadenas de Markov se han utilizado en anlisis avanzado del bisbol

    desde 1960, aunque su uso sigue siendo raro. Cada mitad-turno de un juego del bisbol cabeel estado de la cadena de Markov cuando el nmero de corredores y las salidas se consideran.

    Para cada mitad-turno hay 24 combinaciones posibles del agotamiento. Los modelos de la

    http://www.worldlingo.com/ma/enwiki/es/Population_processhttp://www.worldlingo.com/ma/enwiki/es/Leslie_matrixhttp://www.worldlingo.com/ma/enwiki/es/Epitheliumhttp://www.worldlingo.com/ma/enwiki/es/Snakes_and_laddershttp://www.worldlingo.com/ma/enwiki/es/Snakes_and_laddershttp://www.worldlingo.com/ma/enwiki/es/Epitheliumhttp://www.worldlingo.com/ma/enwiki/es/Leslie_matrixhttp://www.worldlingo.com/ma/enwiki/es/Population_process
  • 7/29/2019 Cadenas Markov Terminado

    31/58

    CADENAS DE MARKOV UNJBG

    31

    INVESTIGACION OPERATIVA

    cadena de Markov se pueden utilizar para evaluar los funcionamientos creados para ambos

    jugadores individuales as como un equipo. 16

    UNA APLICACIN DE LAS CADENAS DE MARKOV

    EN UN PROCESO INDUSTRIAL

    INTRODUCCIN:

    El presente trabajo pretende mostrar la aplicacin de las cadenas de Markov en el proceso

    industrial de fabricacin de tejas de asbesto cemento en la empresa Torres S.A.

    ANTECEDENTES:

    Torres es una empresa del grupo Eternit Blgica dedicada a generar soluciones a la industria

    de la construccin con sus productos de asbesto cemento.

    En esta empresa es una prioridad el manejo del Scrap(desperdicio) en el proceso productivo

    debido a que su acumulacin s convierte en un problema ambiental y a su vez una carga en el

    costo final del producto.

    El proceso productivo se puede describir as:

    1. Humectacin: lugar donde se combinan las materias primas para generar la mezcla con la

    que se elaboraran las tejas de asbesto cemento.

    2. Fabricacin: lugar donde la mezcla del proceso anterior se le da forma de teja.

    3. Desmoldeo: lugar donde la teja es fraguada y separada de los moldes y apilada en estibas.

    4. Almacn de producto terminado: lugar donde las tejas provenientes de desmoldeo

    terminan su ciclo de fraguado.5. Scrap: lugar donde se almacenan los desperdicios o defectuosos generados por los

    procesos anteriores.

    16(www.worldlingo.com/ma/enwiki/es/Markov_chain)

    http://www.worldlingo.com/ma/enwiki/es/Markov_chainhttp://www.worldlingo.com/ma/enwiki/es/Markov_chainhttp://www.worldlingo.com/ma/enwiki/es/Markov_chainhttp://www.worldlingo.com/ma/enwiki/es/Markov_chain
  • 7/29/2019 Cadenas Markov Terminado

    32/58

    CADENAS DE MARKOV UNJBG

    32

    INVESTIGACION OPERATIVA

    Icnico del proceso:

    HUMECTACIN FABRICACIN DESMOLDEO APT

    SCRAP

    OBJETIVOS:

    GENERAL:

    Aplicar la teora fundamental de cadenas de Markov para determinar el comportamiento de la

    materia prima a futuro en cada proceso

  • 7/29/2019 Cadenas Markov Terminado

    33/58

    CADENAS DE MARKOV UNJBG

    33

    INVESTIGACION OPERATIVA

    ESPECIFICOS:

    Mostrar que el proceso es una cadena de Markov.

    Construir la matriz de transicin.

    Mostrar que los estados son accesibles.

    Mostrar que los estados se comunican.

    Mostrar que los estados son recurrentes.

    Mostrar que los estados son aperidicos.

    Presentar los tiempos de: recurrencia y primera ocurrencia.

    MARCO TERICO:

    1. PROCESOS MARKOV

    1.1. ESTADOS DEL SISTEMA:

    Un modelo de Markov consiste en un conjunto de estados discretos. Este conjunto es

    exhaustivo y describe todos los posibles estados donde el sistema puede estar. La

    transicin del estado iajocurre con una probabilidad pij

    Podemos pensar en un modelo de Markov como una simple lnea de transferencia. Se

    puede pensar en dos mquinas y en un inventario. Cada mquina es descrita por su tiempo

    de operacin, su tiempo para la falla y su tiempo para la reparacin. El tiempo de proceso

    se refiere a la cantidad de tiempo en que demora hacer una parte. El tiempo para la falla, es

    el tiempo que ocurre entre la ltima reparacin y el siguiente dao. El tiempo para

    reparacin, es el tiempo que transcurre entre el ultimo dao y el momento en que lamquina esta disponible para operar. Estas cantidades pueden ser deterministicas, en

    estos casos se obtienen estados discretos y una cadena de Markov con transiciones

    discretas(o tiempos discretos en la cadena de Markov). Tambin puede ser continuo con

    variables aleatorias. Se asume que la primera mquina nunca deja de ser alimentada y la

    ultima maquina nunca es bloqueada. Se modela para una maquina y as tener una idea

  • 7/29/2019 Cadenas Markov Terminado

    34/58

    CADENAS DE MARKOV UNJBG

    34

    INVESTIGACION OPERATIVA

    bsica de la cadena de Markov. En este caso el estado de la maquina se describe por su

    estatus, Wi, donde:

    Wi =

    1 mquina disponible

    0 mquina en reparacin

    M1 Inventario M2

    La cadena se puede representar as:

    Donde de 0 a 1 se da la probabilidad de repararse.

    Donde de 1 a 0 se da la probabilidad de falla.

    0 1

    Estas probabilidades se obtienen al observar las mquinas en operacin por un largo

    periodo de tiempo. Estos datos se pueden recopilar para determinar que porcentaje de

    tiempo la mquina esta siendo reparado e igual para el porcentaje de tiempo que la mquina

    est disponible para el trabajo.

    Ahora los estados de este proceso consisten en el estatus de cada mquina ms la cantidad

    de material presente en el sistema. Especficamente, el estado del sistema es:

  • 7/29/2019 Cadenas Markov Terminado

    35/58

    CADENAS DE MARKOV UNJBG

    35

    INVESTIGACION OPERATIVA

    S=(n,W1,W2)

    Donde: n= # de piezas en inventario + # piezas en la mquina 2 0

  • 7/29/2019 Cadenas Markov Terminado

    36/58

    CADENAS DE MARKOV UNJBG

    36

    INVESTIGACION OPERATIVA

    P11 P12 ........................ P1m

    P21 P22 ........................ P2m

    P= . . . .

    . . . .

    Pm1 Pm2 ........................ Pmm

    Tambin note que las transiciones de probabilidad satisfacen

    0

  • 7/29/2019 Cadenas Markov Terminado

    37/58

    CADENAS DE MARKOV UNJBG

    37

    INVESTIGACION OPERATIVA

    Donde P[Sj(k+1)]=probabilidad que el sistema este en el estado Sj en el tiempo k+1.

    En la ecuacin anterior, j=1,2,.....,m.

    Si se escriben todas las m, se puede representar en forma matricial y obtener:

    (P[S1(k+1)] P[S2(k+1)].P[Sm(k+1)])

    P11 P12 ................. P1m

    P21 P22 ................. P2m

    =(P[S1(k+1)] P[S2(k+1)].P[Sm(k+1)]) . . ................. .

    . . ................. .

    Pm1 Pm2 ................. Pmm

    O de la siguiente forma:

    P(k+1) = P(k)P , k=0,1,2......

    Para responder a la pregunta Q1 por induccin,

    P(1) = P(0)P

    P(2)= P(1)P= P(0)P2

    . . .

    . . .

    P(k) = P(0)Pk

    k=0,1,2......

  • 7/29/2019 Cadenas Markov Terminado

    38/58

    CADENAS DE MARKOV UNJBG

    38

    INVESTIGACION OPERATIVA

    Por ejemplo si se tiene la siguiente cadena de Markov de dos estados

    De los estados del diagrama tenemos la siguiente matriz:

    0.5 0.5

    0.4 0.6

    P=

    Para encontrar P (k), se necesita Pk, que puede ser encontrada con una tcnica como la de

    Cayley-Hamilton (este modelo es aplicado para una matriz 2x2, no se sabe cual es el

    modelo para otro tipo de matriz).

    Pk= ((0.1)k-1-1)I + (10-(0.1) k-1)P

    9 9

    Donde I es la matriz identidad. Pk puede ser evaluada para un k especfico, entonces:

    P(k) = P(0)Pk

    0.5

    0.5 1 2

    0.4

    0.6

  • 7/29/2019 Cadenas Markov Terminado

    39/58

    CADENAS DE MARKOV UNJBG

    39

    INVESTIGACION OPERATIVA

    En un caso de inters particular es en el que k tiende al infinito. Para este ejemplo:

    4/9 5/9

    4/9 5/9

    Pk=

    Con k tendiendo al infinito.

    Claramente, Pk llega a una constante. Esto conlleva a otra propiedad la que puede ser vista

    con el rotulo de P(0)=(1 0). Entonces Pk=[4/9 5/9] con k tendiendo al infinito. Similarmente,

    si P(0)=(0 1), entonces P(k) con k tendiendo al infinito sigue siendo igual. As, los limites de

    las probabilidades de estado son independientes del estado inicial. Muchos procesos de

    Markov presentan esta propiedad y son relacionados comoprocesos ergdicos.

    1.4. CLASIFICACIN DE LOS ESTADOS

    Lmite de las probabilidades de estado:

    Si k tiende a infinito, P(k) llega a una constante, entonces el lmite de las

    probabilidades de estado existe y son independientes de la condicin inicial.

    Limk

    infinito

    Para el ejemplo, esta ecuacin se puede ser resuelta con la restriccin

    im i 1 2)

  • 7/29/2019 Cadenas Markov Terminado

    40/58

    CADENAS DE MARKOV UNJBG

    40

    INVESTIGACION OPERATIVA

    Estado transi tor io

    Si es un estado transitorio si se puede dejar el estado pero nunca retornar a l.

    Estado absorbente

    Si es un estado absorbente si el sistema entra al estado y permanece ah. Y el lmite

    de la probabilidad de estado es 1. este estado es conocido tambin como estado

    trampa.

    Cadena recurrent e

    Una cadena recurrente es un conjunto de estados de los que el sistema no puede

    salir. Un estado transitorio conduce al sistema dentro de este conjunto de estados. El

    sistema hace saltos dentro de este conjunto indefinidamente. La cadena recurrente es

    tambin llamada subcadena de Markov irreducible o de clases recurrentes.

    Finalmente se presentan unos tiles factores de las cadenas de Markov:

    Cada cadena de Markov debe tener al menos una cadena recurrente

    Una cadena recurrente es un estado absorbente generalizado Un proceso de Markov que tiene una cadena recurrente ser completamente ergdica

    desde dondequiera que el inicie finalizara en cadena recurrente

    Si un proceso tiene dos o ms cadenas recurrentes, entonces la propiedad ergdica

    no se mantiene en el tiempo

    Un estado transitorio es un estado que ocupa el sistema antes de convertirse en una

    cadena recurrente

  • 7/29/2019 Cadenas Markov Terminado

    41/58

    CADENAS DE MARKOV UNJBG

    41

    INVESTIGACION OPERATIVA

    2. CLASIFICACIN DE LOS ESTADOS:

    Recurrentes:inf

    n=1 fiin =1

    Absorbentes si pii =1 Recurrentes nulos uii = inf

    Recurrentes positivos uii < inf

    Ergdico: recurrente positivo aperidico

    Transitorio o transiente: si hay alguna probabilidad positiva de no volver all,inf

    n=1 fiin 0Comunicados Si i es accesible desde j

    Si j es accesible desde i

    Pertenecen a una clase: cadena irreductible

    Peridico: tiene periodo

    Aperidico: no tiene periodo

  • 7/29/2019 Cadenas Markov Terminado

    42/58

    CADENAS DE MARKOV UNJBG

    42

    INVESTIGACION OPERATIVA

    SOLUCIN DEL PROBLEMA

    1. DESCRIPCIN DE LOS ESTADOS

    NUMERO DE ESTADO ESTADO

    1 HUMECTACIN

    2 FABRICACIN

    3 DESMOLDEO

    4 APT

    5 SCRAP

    2. EL PROCESO COMO CADENA DE MARKOV

    HUMECTACIN FABRICACIN DESMOLDEO APT

    SCRAP

  • 7/29/2019 Cadenas Markov Terminado

    43/58

    CADENAS DE MARKOV UNJBG

    43

    INVESTIGACION OPERATIVA

    El proceso se define como una cadena de Markov debido a que cumple la propiedad

    Markoviana de la siguiente forma:

    Si P[Sj(k) / Sa(k-1), Sb(k-2), Sc(k-3).....] = P[Sj(k) / Sa(k-1)] para todo k, j,a, b, c,.....

    entonces el sistema es un estado discreto de discretas transiciones de procesos de

    Markov.

    La materia prima fluye por todo el proceso productivo.

    Al pasar de un estado a otro ella se puede convertir en producto terminado o en scrap.

    La cantidad de materia prima que llega a un estado, depende solo de lo que sea capas

    de pasar como producto bueno el estado anterior. El proceso se mira como un

    proveedor que le entrega a su prximo cliente sin importar que tanto le entrega el

    proveedor del nivel anterior al proveedor actual. En otras palabras lo que llega a

    APT(almacn de producto terminado)solo depende de lo que le entregue DESMOLDEO

    y no depende de lo que entregue HUMECTACIN.

  • 7/29/2019 Cadenas Markov Terminado

    44/58

    CADENAS DE MARKOV UNJBG

    44

    INVESTIGACION OPERATIVA

    3. DATOS PARA CONSTRUIR LA MATRIZ DE TRANSICIN.

    DATOS PROCESO DE HUMECTACIN

    TONELADAS TONELADAS TONELADASDA

    PRODUCIDAS

    PERDIDAS RECIBIDAS

    1 178 0.25 177.752 180 0.13 179.873 175 0.16 174.844 178 0.25 177.755 179 0.25 178.756 176 0.26 175.747 176 0.16 175.848 180 0.25 179.75

    9 175 0.25 174.7510 179 0.22 178.7811 178 0.24 177.7612 178 0.18 177.8213 178 0.25 177.7514 179 0.22 178.7815 176 0.17 175.8316 176 0.23 175.7717 179 0.14 178.8618 177 0.18 176.8219 177 0.25 176.75

    20 177 0.22 176.7821 178 0.27 177.7322 179 0.20 178.8023 179 0.17 178.8324 180 0.19 179.8125 179 0.17 178.8326 178 0.24 177.7627 176 0.23 175.7728 176 0.20 175.8029 175 0.22 174.7830 179 0.15 178.85Produccin Total= 5330

    ProduccinEntregada=

    5323.68

    ProduccinPerdida=

    6.32

  • 7/29/2019 Cadenas Markov Terminado

    45/58

    CADENAS DE MARKOV UNJBG

    45

    INVESTIGACION OPERATIVA

    DATOS PROCESO DE FABRICACINTONELAD

    ASTONELADAS TONELADA

    SDA PRODUCID

    ASPERDIDAS ENTREGA

    DAS1 177.75 0.38 177.372 179.87 0.24 179.623 174.84 0.19 174.654 177.75 0.26 177.495 178.75 0.27 178.486 175.74 0.49 175.257 175.84 0.19 175.648 179.75 0.51 179.249 174.75 0.40 174.3510 178.78 0.29 178.49

    11 177.76 0.52 177.2412 177.82 0.45 177.3713 177.75 0.41 177.3314 178.78 0.30 178.4815 175.83 0.23 175.6016 175.77 0.50 175.2817 178.86 0.27 178.5918 176.82 0.46 176.3619 176.75 0.41 176.3420 176.78 0.50 176.2721 177.73 0.40 177.3422 178.80 0.18 178.62

    23 178.83 0.28 178.5524 179.81 0.22 179.5925 178.83 0.23 178.6026 177.76 0.46 177.3027 175.77 0.52 175.2428 175.80 0.46 175.3429 174.78 0.48 174.3030 178.85 0.40 178.45

    Produccin Total= 5323.678548ProduccinEntregada=

    5312.77

    ProduccinPerdida=

    10.90

  • 7/29/2019 Cadenas Markov Terminado

    46/58

    CADENAS DE MARKOV UNJBG

    46

    INVESTIGACION OPERATIVA

    DATOS PROCESO DE DESMOLDEOTONELADAS TONELAD

    ASTONELADA

    SD A DESMOLDEADA

    SPERDIDAS ENTREGAD

    AS

    1 177.37 2.40 174.962 179.62 2.10 177.523 174.65 2.15 172.504 177.49 2.04 175.455 178.48 2.67 175.816 175.25 2.46 172.797 175.64 2.39 173.258 179.24 2.63 176.619 174.35 2.84 171.50

    10 178.49 2.84 175.6511 177.24 2.61 174.63

    12 177.37 2.13 175.2413 177.33 2.42 174.9214 178.48 2.33 176.1515 175.60 2.42 173.1816 175.28 2.13 173.1417 178.59 2.23 176.3718 176.36 2.36 174.0119 176.34 2.71 173.6420 176.27 2.84 173.4421 177.34 2.73 174.6122 178.62 2.28 176.3523 178.55 2.10 176.45

    24 179.59 2.03 177.5525 178.60 2.43 176.1726 177.30 2.30 175.0027 175.24 2.00 173.2428 175.34 2.80 172.5429 174.30 2.14 172.1630 178.45 2.00 176.45

    Produccin Total= 5312.77Produccin Entregada= 5241.27Produccin Perdida= 71.51

  • 7/29/2019 Cadenas Markov Terminado

    47/58

    CADENAS DE MARKOV UNJBG

    47

    INVESTIGACION OPERATIVA

    DATOS PROCESO APTTONELADA

    STONELADAS TONELADAS

    DA

    REVISADAS PERDIDAS ENTREGADAS

    1 177.09 0.57 176.522 179.27 0.49 178.783 174.30 0.48 173.814 177.16 0.54 176.615 178.29 0.59 177.706 174.99 0.44 174.557 175.30 0.57 174.738 178.97 0.50 178.479 174.08 0.50 173.57

    10 178.18 0.45 177.7311 176.98 0.51 176.4812 177.17 0.47 176.6913 177.09 0.55 176.5414 178.23 0.57 177.6715 175.44 0.50 174.9416 174.98 0.54 174.4417 178.30 0.56 177.7318 176.17 0.52 175.6419 176.10 0.54 175.5620 175.92 0.59 175.3421 177.07 0.45 176.6222 178.33 0.42 177.9123 178.37 0.58 177.79

    24 179.41 0.41 179.0025 178.40 0.56 177.8426 177.01 0.54 176.4727 175.05 0.41 174.6428 175.12 0.45 174.6629 174.16 0.53 173.6330 178.23 0.52 177.72

    Produccin Total= 5305.159114ProduccinEntregada=

    5289.79

    Produccin

    Perdida=

    15.37

  • 7/29/2019 Cadenas Markov Terminado

    48/58

    CADENAS DE MARKOV UNJBG

    48

    INVESTIGACION OPERATIVA

    4. ICNICO DEL PROBLEMA

    Humectacin Fabricacin Desmoldeo Apt

    Scrap

    5. CALCULO DE PROBABILIDADESProporciones

    Proporciones de HumectacinProduccin Total= 5330Produccin Entregada= 5323.68 0.999Produccin Perdida= 6.32 0.001

    Proporciones de Fabricacin

    Produccin Total= 5323.678548Produccin Entregada= 5312.77 0.998Produccin Perdida= 10.90 0.002

    Proporciones de DesmoldeoProduccin Total= 5312.774Produccin Entregada= 5241.267 0.987Produccin Perdida= 71.50624043 0.013

    Proporciones de Almacn Producto TerminadoProduccin Total= 5305.159114Produccin Entregada= 5289.79 0.997Produccin Perdida= 15.37 0.003

    Proporciones de Scrap

    Produccin Entregada= Por norma de calidad 0.010Produccin Perdida= 0.990

  • 7/29/2019 Cadenas Markov Terminado

    49/58

    CADENAS DE MARKOV UNJBG

    49

    INVESTIGACION OPERATIVA

    6. MATRIZ DE TRANSICIN

    H Fab D APT SH 0.000 0.999 0.000 0.000 0.001Fab 0.000 0.000 0.980 0.000 0.020D 0.000 0.000 0.000 0.987 0.013

    APT 0.000 0.000 0.000 0.997 0.003S 0.010 0.000 0.000 0.000 0.990

    Clasificacin de los estados:

    Recurrentes:

    infn=1 fiin =1

    Absorbentes si pii =1

    Recurrentes nulos uii = inf Recurrentes positivos uii < inf Ergdico: recurrente positivo aperidico

    Transitorio o transiente: si hay alguna probabilidad positiva de no volver all,inf

    n=1 fiin 0

    Comunicados Si i es accesible desde j

    Si j es accesible desde i

    Pertenecen a una clase: cadena irreductiblePeridico: tiene periodo

    Aperidico: no tiene perido

    Utilizando esta tabla mostraremos el comportamiento de la cadena que se est analizando.

  • 7/29/2019 Cadenas Markov Terminado

    50/58

    CADENAS DE MARKOV UNJBG

    50

    INVESTIGACION OPERATIVA

    7. ACCESIBILIDAD DE LOS ESTADOS

    J es Accesible, si pijn >0

    Veamos la matriz original

    H Fab D APT SH 0.000 0.999 0.000 0.000 0.001

    Fab 0.000 0.000 0.980 0.000 0.020D 0.000 0.000 0.000 0.987 0.013

    APT 0.000 0.000 0.000 0.997 0.003S 0.010 0.000 0.000 0.000 0.990

    Ahora multipliquemos la matriz original n veces por ella misma y miremos su comportamiento

    para P3072

    P3072= 0.002 0.002 0.002 0.758 0.2350.002 0.002 0.002 0.758 0.2350.002 0.002 0.002 0.758 0.2350.002 0.002 0.002 0.758 0.2350.002 0.002 0.002 0.758 0.235

    Existe un n=3072 donde los valores de p ijn >0. Esto indica que todos los estados j son

    accesibles.

  • 7/29/2019 Cadenas Markov Terminado

    51/58

    CADENAS DE MARKOV UNJBG

    51

    INVESTIGACION OPERATIVA

    8. COMUNICACIN ENTRE ESTADOS

    Los estados se comunican si:

    Si i es accesible desde j

    Si j es accesible desde i

    La matriz P3072 nos presenta este comportamiento pues todos los estados son accesibles de i a

    j o des de j a i por lo tanto todos los estados se comunican.

    9. CONCURRENCIA DE LOS ESTADOS

    Sea PT la transpuesta de la matriz original, elaborada para calcular las probabilidades de

    estado estable

    PT 0.000 0.000 0.000 0.000 0.0100.999 0.000 0.000 0.000 0.0000.000 0.980 0.000 0.000 0.0000.000 0.000 0.987 0.997 0.000

    0.001 0.020 0.013 0.003 0.990

  • 7/29/2019 Cadenas Markov Terminado

    52/58

    CADENAS DE MARKOV UNJBG

    52

    INVESTIGACION OPERATIVA

    Representacin matricial de:

    jm

    i=0 i * Pij j=0 Pijn

    m

    j=0 j =1

    mj=0 j =1

    R1 R2 R3 R4 R5R1= 0.000 0.000 0.000 0.000 0.010R2= 0.999 0.000 0.000 0.000 0.000R3= 0.000 0.980 0.000 0.000 0.000R4= 0.000 0.000 0.987 0.997 0.000R5= 0.001 0.020 0.013 0.003 0.9901= 1 1 1 1 1

    Como tenemos un sistema de 6 ecuaciones para 5 variables eliminamos una de ellas por ser

    redundante.

    R1 R2 R3 R4 R5R1= 0.000 0.000 0.000 0.000 0.010R2= 0.999 0.000 0.000 0.000 0.000R3= 0.000 0.980 0.000 0.000 0.000R4= 0.000 0.000 0.987 0.997 0.0001= 1 1 1 1 1

    Al resolver el sistema tenemos las siguientes ecuaciones:

    R1= 0.010 R5R2= 0.999 R1R3= 0.980 R2R4= 0.987 R3 0.997 R41= 1R1 1R2 1R3 1R4 1R5

    R1= 0.002R2= 0.002R3= 0.002R4= 0.758R5= 0.235

  • 7/29/2019 Cadenas Markov Terminado

    53/58

    CADENAS DE MARKOV UNJBG

    53

    INVESTIGACION OPERATIVA

    Donde los valores de recurrencia (U) son Ujj j

    U MesesU11 425.1U22 425.5U33 434.2U44 1.3U55 4.3

    Los estados Recurrentes positivos presentan uii < inf lo cual cumple para los estados de esta

    cadena de Markov.

    10. MOSTRAR QUE LOS ESTADOS SON APERIDICOS.

    Veamos la matriz n-1 =3071

    P3071 0.002 0.002 0.002 0.758 0.2350.002 0.002 0.002 0.758 0.2350.002 0.002 0.002 0.758 0.2350.002 0.002 0.002 0.758 0.2350.002 0.002 0.002 0.758 0.235

    Matriz n=3072

    P3072= 0.002 0.002 0.002 0.758 0.2350.002 0.002 0.002 0.758 0.2350.002 0.002 0.002 0.758 0.2350.002 0.002 0.002 0.758 0.2350.002 0.002 0.002 0.758 0.235

    Para un n+1 donde n=3072 y n+1=3073 se tiene:

    P3073 0.002 0.002 0.002 0.758 0.2350.002 0.002 0.002 0.758 0.2350.002 0.002 0.002 0.758 0.2350.002 0.002 0.002 0.758 0.2350.002 0.002 0.002 0.758 0.235

  • 7/29/2019 Cadenas Markov Terminado

    54/58

    CADENAS DE MARKOV UNJBG

    54

    INVESTIGACION OPERATIVA

    Se puede observar en las matrices que los valores de las probabilidades en todas las filas

    permanecen iguales entre las matrices pares e impares, a dems el sistema a la larga se

    estabilizo, lo que demuestra que la matriz es aperidica.

    11. TIEMPO DE RECURRENCIA Y PRIMERA OCURRENCIA

    Tiempos de recurrencia Uii(es el tiempo esperado que gasta el sistema en volver a estar en i

    partiendo de i)

    U MesesU11 425.1U22 425.5U33 434.2U44 1.3U55 4.3

    Matriz original:

    0.000 0.999 0.000 0.000 0.0010.000 0.000 0.980 0.000 0.0200.000 0.000 0.000 0.987 0.0130.000 0.000 0.000 0.997 0.0030.010 0.000 0.000 0.000 0.990

    Uij k#j Pik Ukj

    U14= 1 + P11 U14+ P12 U24 + P13 U34 + P15 U54

    U24= 1 + P21 U14+ P22 U24 + P23 U34 + P25 U54

    U34= 1 + P31 U14+ P32 U24 + P33 U34 + P35 U54

    U54= 1 + P51 U14+ P52 U24 + P53 U34 + P55 U54

    U14= 1+0.999 U24+0.001 U54

    U24=1+0.980 U34+0.02 U54

    U34=1+0.013 U54

    U54=1+0.010 U14+0.990 U54

  • 7/29/2019 Cadenas Markov Terminado

    55/58

    CADENAS DE MARKOV UNJBG

    55

    INVESTIGACION OPERATIVA

    Tiempo de primera ocurrencia.

    Es tiempo esperado que se gasta para ir del estado i al j

    U14= 6.46 meses

    U24= 5.46 meses

    U34= 2.38 meses

    U54= 106 meses

    En resumen podemos decir que:

    A la larga el sistema estar en el estado 4(APT) con una probabilidad de 0.758. Lo que

    expresa este trmino es que despus de n transiciones la materia prima estar en APT con una

    probabilidad del 75,8%. Y para la materia prima que va a Scrap, a la larga estar en el estado 5

    con una probabilidad de 0.235. Lo que indica que la probabilidad a la larga que la materia

    prima se vuelva Scrap es del 23.5%.

    Ahora el tiempo de recurrencia para que el sistema estando en estado 4(APT) vuelva a este

    estado es U44 = 1.3 meses. En otras palabras, es el tiempo que transcurre para que vuelva

    haber producto terminado es 1.3 meses.

    En conclusin, se perder mucha materia prima a la larga.

  • 7/29/2019 Cadenas Markov Terminado

    56/58

    CADENAS DE MARKOV UNJBG

    56

    INVESTIGACION OPERATIVA

    CONCLUSIONES

    Las cadenas de Markov es una herramienta que nos puede ayudar en los negocios como en

    analizar los patrones de compra de los consumidores, como en otros aspectos, aunque esta

    herramienta no es muy utilizada puede proporcionar informacin importante cuando es

    aplicable.

    El anlisis de Markov puede utilizarse para enfrentar una serie de problemas prcticos, que

    incluyen participacin de mercado, condiciones de equilibrio y adems es utilizado por

    muchas compaas como ayuda para el anlisis de necesidades de mano de obra de su

    grupo de vendedores. Esto es aplicado por muchas reas como Contabilidad, Administracin,Mercadotecnia y entre otras.

  • 7/29/2019 Cadenas Markov Terminado

    57/58

    CADENAS DE MARKOV UNJBG

    57

    INVESTIGACION OPERATIVA

    REFERENCIAS

    BIBLIOGRAFICAS

    Charles A. Gallagher, Mtod os c uant itativo s para la toma d e decis ion es en la

    administracin, Editorial Mc Graw Hill Mexico D.F., 1982

    Robert J. Thierauf; Richard A. Grosse, Toma de Decis iones p or m edio de la

    Invest igacin de Operaciones, Editorial LIMUSA S.A. de C.V, Mexico D.F., 1991.

    FINITE MARKOV CHAINS, Kemeny and Snell, Edit. D.Van Nostrand Company Inc.

    APLICATION OF PETRI NETS IN MANUFACTURING SYSTEMS, Desrochers and Al-

    jaar, Edit. IEEE PRESS.

    INTRODUCCIN A LA INVESTIGACIN DE OPERACIONES, Hiller and Lieberman,

    Edit.Mc Graw Hill.

    LGEBRA LINEAL. Grossman, Edit. Iberoamrica.

    APUNTES DE CLASE, Ing. Carlos Alberto Ossa. UTP.

    ALGUNAS UNIDADES DE INVESTIGACIN DE OPERACIONES, Ing. Csar Jaramillo.

    UTP.

  • 7/29/2019 Cadenas Markov Terminado

    58/58

    CADENAS DE MARKOV UNJBG

    CONSULTASVIRTUALES

    http://estadisticamigable.blogspot.com/2010/08/andrei-marcov-1856-1922-en-el-157.html

    http://sisbib.unmsm.edu.pe/bibvirtualdata/tesis/basic/cabanillas_ce/cap1.pdf

    http://www.unipamplona.edu.co/unipamplona/portalIG/home_10/recursos/general/documentos/

    pdf/16102009/18_ar_carolina_casan.pdf

    http://www.infoamerica.org/documentos_pdf/markov.pdf

    http://www.ciencia-ahora.cl/Revista20/15MatricesTransicion.pdf

    http://ares.unimet.edu.ve/matematica/bpma31/Modelos%20Estocasticos/PROCESOS%20DE%

    20MARKOV.doc

    http://estadisticamigable.blogspot.com/2010/08/andrei-marcov-1856-1922-en-el-157.htmlhttp://sisbib.unmsm.edu.pe/bibvirtualdata/tesis/basic/cabanillas_ce/cap1.pdfhttp://www.infoamerica.org/documentos_pdf/markov.pdfhttp://www.ciencia-ahora.cl/Revista20/15MatricesTransicion.pdfhttp://www.ciencia-ahora.cl/Revista20/15MatricesTransicion.pdfhttp://www.infoamerica.org/documentos_pdf/markov.pdfhttp://sisbib.unmsm.edu.pe/bibvirtualdata/tesis/basic/cabanillas_ce/cap1.pdfhttp://estadisticamigable.blogspot.com/2010/08/andrei-marcov-1856-1922-en-el-157.html