Estado del arte y propuesta de tema Página 1 de 7 Estado de Arte sobre las Cadenas Ergódicas de Markov __________________ Por: Ing. David Alberto Rojas Rodríguez 1 Resumen: Procesos de Markov, específicamente las cadenas ergódicas son una matriz de resolución de problemas de toda índole industrial, cotidiana, servicios, entre otras, en donde cada cadena (tema en estudio) y sus entradas (características, variables, etc.) cumplen tres requisitos primordiales, a saber, sus estados o entradas deben ser irreductibles, positivamente recurrentes y aperiódicas, sólo así se podrá llamar y utilizar como ergódica. La aplicación de las cadenas ergódicas trabaja con probabilidades discretas y cubren campos en donde se quiere investigar el comportamiento de un evento, que depende del evento inmediatamente anterior a éste. Esto porque la memoria de las cadenas ergódicas de Markov sólo permite ir un eslabón atrás, es decir si el estado actual es n, se puede ir a n+1 e inclusive regresar a ese estado. Esta propiedad se convierte en una limitante de la teoría cuando se necesita trabajar con eventos y proyectarlos hacia el futuro o ir a periodos pasados, debido a que paulatinamente se perderá conocimiento valioso y el grado de probabilidad obtenido finalmente, estará caracterizado por un alto sesgo estadístico. Así como el efecto látigo afecta los eventos a medida que crecen en el tiempo a razón de n+1 sin tener un claro horizonte de donde debe detenerse. Palabras clave: Cadenas ergódicas, irreductible, aperiódica, recurrente. I. Marco Teórico Según lo menciona Hillier & G. Lieberman, una cadena de Markov es ergódica si todos sus estados son no nulos, no periódicos y recurrentes. Para que una cadena de eventos sea ergódicos deben cumplir una propiedad primordial; el límite lim n 0 Pij( n ) existe y es independiente del estado inicial i. Lo denominaremos j : j de i a j. Si es posible el tránsito en ambos sentidos, entonces los dos estados están comunicados. Por ejemplo se tienen los estados 1 y 2, los cuales están comunicados. Además 1, 2 y 3 son accesibles desde 0, pero este último no es accesible desde ningún otro estado. Ilustración 1: Diagrama de estados iniciales lim n 0 Pij( n ) j Las probabilidades límites se denominan probabilidades de estado estable. Si los límites anteriores existen, entonces: lim n ( 1 N n P (k ) ij ) j k 1 La aplicación de las Cadenas de Markov abarcan sistemas de producción y procesos estadísticos de toda naturaleza, sin embargo las Cadenas que son Ergódicas tienen un área de influencia establecida, caracterizada por factores propios de su aplicación, lo cual se evidencia mediante el estudio del estado del arte. Por otra parte en su libro sobre Teoría Elemental de la Probabilidad y de los Procesos Estocásticos, el físico Kai Lai Chung se refiere a que una Cadena de Markov es ergódica si y sólo si es irreductible, positivamente recurrente y aperiódica. El teorema de Chung define de manera concisa las propiedades descritas. El término Cadenas irreductibles según Chung, se refiere a que el estado j es accesible desde el i si es posible transitar desde i a j en un número finito de pasos, es decir, si pij(n)>0 para algún n. Esto equivale a decir que existe, sobre el diagrama de transición, algún camino que lleva 1 Profesor Universidad Técnica Nacional Cuando un subconjunto de estados es tal que todos ellos están comunicados unos con otros se dice que dicho subconjunto constituye una clase comunicante. Estas clases deben ser además conjuntos maximales, lo que implica que cada estado sólo puede estar en una clase y que dos estados que comunican deben estar siempre en la misma clase. En el ejemplo anterior hay dos clases comunicantes, una formada por los estados 1 y 2, y otra por el estado 3. Para que una cadena sea irreducible se debe cumplir que todos sus estados se comuniquen unos con otros, es decir, si están todos contenidos en una única clase comunicante. El físico Lai Chung define las Cadenas recurrentes, como aquellas en las que cuando se tiene un estado i, se tiene la probabilidad de volver en algún momento a dicho estado. Se dice que el estado i es recurrente si fi=1 y que es transitorio si fi<1. Es decir, un estado es transitorio si, estando en él, existe la posibilidad de salir y no volver a pasar por él. Estado del arte y propuesta de tema Página 2 de 7 Por ejemplo en el escenario de la Ilustración #1, sobre los estados de la cadena 0, 1, 2 y 3; los estados 1, 2 y 3 son recurrentes, el 0 es un estado transitorio. Es importante tener en consideración que todos los estados en una misma clase comunicante son del mismo tipo, recurrentes o transitorios. Como consecuencia, en una cadena finita e irreducible todos los estados serán recurrentes. Ejemplo de aplicación #1: En el proceso binomial todos los estados son transitorios. Sin embargo, se puede demostrar que en un paseo aleatorio simétrico todos los estados son recurrentes, si bien dejan de serlo si el paseo no es simétrico. Entonces suponga que la cadena está en este momento en un estado recurrente i. Se sabe entonces que tarde o temprano la cadena volvería a dicho estado con probabilidad 1. Ahora se debe estudiar la variable Ti tiempo que se tarda en volver al estado i. En particular es importante conocer la esperanza matemática de esta variable, E[Ti] (lo cual puede no ser fácil). Cuando dicha esperanza es finita entonces el estado es positivamente recurrente. Así mismo la cadena es positivamente recurrente cuando todos sus estados también lo son. Observación relevante #1: Toda cadena finita y recurrente es positivamente recurrente. Cadenas aperiódicas: Al tener un estado recurrente i, la cadena volvería a pasar por i infinitas veces. La información sobre los instantes en que esto puede ocurrir viene dada por pii(n), que representa la probabilidad de que se vuelva a él en n pasos. Ejemplo de aplicación #2: La siguiente cadena es periódica con periodo d=3: Ilustración 2: Ejemplo de aplicación #2 Ilustración 3: Ejemplo de aplicación #3 Por tanto se tiene ya una serie de ideas para reconocer cuando se está ante una cadena ergódica. En este tipo de cadenas ocurre que: lim n P ( n ) 1T Lo cual implica: lim n p (n) lim n p (0) P ( n ) p (0)1T Ya que p(0)1T 1 Observación relevante #3: si P tiene dimensión finita y no contiene ceros, la cadena de Markov asociada será ergódica. II.Acerca del proceso Para conceptualizar el campo de estudio específico, es primordial realizar una investigación acerca de sucesos pasados que se relacionen en contexto y forma, además de conocer previas investigaciones, metodologías y sobre todo alcances obtenidos con el tema en estudio. El objetivo de este estado del arte es informarse acerca del conocimiento que existe respecto al tema (cadenas ergódicas), esto será una base para darle la dirección correcta a la investigación. Cuando es exhaustivo el proceso, se genera conocimiento importante que lleva a plasmar los resultados de manera más concisa, razón que lleva al investigador a recopilar documentos interdisciplinarios que converjan en el tema tratado. III.Investigaciones relacionadas al tema tratado Las Cadenas Ergódicas de Markov, surgen en el año de 1907, cuando el matemático ruso Andrei Andreevitch Markov realiza su investigación sobre teorías de probabilidades. Observación relevante #2: Nótese que todos los estados en una misma clase comunicante tendrán siempre el mismo periodo, por tanto, cuando existe una cadena irreducible se puede calcular el periodo de dicha cadena, o sea que una cadena irreducible es aperiódica cuando sus estados tienen periodo d=1. Ejemplo de aplicación #3. La siguiente cadena es aperiódica: Existe un amplio rango o campos de aplicación de las cadenas ergódicas de Markov, a saber, se pueden utilizar para procesos de negocios, donde se utilizan para analizar patrones de compra de los clientes y de sus deudores morosos, ayudan en la planeación de necesidades de personal y en la industria son manipuladas para analizar la necesidad del remplazo de equipos, campo concerniente a la investigación de Estado del arte y propuesta de tema Página 3 de 7 donde la entrada j,i es Pij(inf)=Lim ninfinito Pijn , pero como Pij(inf)=Pii(inf) se concluye que la matriz M(infinita) tiene sus columnas iguales, esto es de la forma : operaciones pero observada desde otra arista de resolución. Además en ciencias exactas como en el campo de la física, ingeniería, biología, medicina y matemáticas, inclusive. La investigación y aplicación de las cadenas ergódicas de Markov están determinadas por la aplicación de sus límites dentro del campo estadístico, según lo plantea Restrepo y Ossa en su tesis sobre Investigación de Operaciones y Estadística, donde se encuentran plasmadas las condiciones necesarias para tener una cadena ergódica, con una condición suficiente, si existe un n>0 tal que Pijn >0, donde i, j=0,1,2....m. la cadena de Markov, con esta propiedad, se llama ergódica. n Entonces, Pij y como k 0 ( Pikn * Pkj ) , luego j P 1 , entonces n j 0 ij j 0 k 0 (k * Pkj ) Ilustración 4: matriz M(infinita) 2. j 1 Teorema #1: Para una cadena de Markov ergódica, j Lim n Pijn existe y j ( j pertenece0,...m) es la única solución no negativa de j . Entonces: j k 0 (k * Pkj ) y asintótico de Pn, es decir Lim n Pn entonces el problema es encontrar las condiciones para que este límite exista y en caso de existir, surge la incógnita ¿dependerá del estado inicial del sistema? Bajo condiciones de “regularidad” la distribución asintótica existe y bajo estas condiciones la distribución en el límite será independiente de la distribución inicial. Teorema básico del límite para cadenas de Markov: En una cadena de Markov recurrente irreducible y aperiódica se tiene que: 1 Lim ninfinito Piin = Σinfn=1 n fiin Siendo fii la probabilidad de que el proceso regrese al estado i dado que comienza en el estado i. Y además Lim n Pijn Lim n Pijn .Del Ahora si Limninfinito(Piin=π=0) y la clase es j 0 j 1 El entendimiento de los límites ergódicos en las cadenas de Markov es fundamental para establecer hasta donde se extiende el campo de estudio en tiempo y espacio, es decir que la necesidad de conceptualizar los estados y su relación es fundamental en las cadenas y está dado por Pn =Mn P0. Y si existe un comportamiento teorema se pueden sacar fuertes conclusiones: 1. Si M=Pij es la matriz de transición de una cadena de Markov, y suponiendo que esta cadena es recurrente, irreducible y aperiódica, se garantiza la existencia de la matriz M(infinita) Sea C una cadena irreducible y recurrente, entonces Pijn=0 para i pertenece a C y j no pertenece a C dado n. Esto es, toda vez que entremos en C no es posible abandonarlo, luego la matriz Pij con i,j perteneciendo a C estará asociada a una cadena de Markov irreducible y recurrente luego el teorema básico es aplicable si la clase resulta ser aperiódica. recurrente se dirá entonces que la clase es débilmente ergódica o nula recurrente. El valor Σinfn=1(n fiin=mi). Se define como el tiempo medio de recurrencia del estado i. Ahora se asegura, sin demostración, que bajo las condiciones de regularidad del teorema anterior, que Lim ninfinito Piin=1/mi=πi. Teorema#2: En una clase aperiódica positiva recurrente con estados i=0, 1,2,…, n; Se tiene que: inf Lim n Piin i inf k 0 k ; k o k 1 (1) Cualquier conjunto i que satisfaga (1) se llama probabilidad de distribución estacionaria de la cadena de Markov. Observe que si Pij es la matriz de transición asociada a una clase recurrente ergódica positiva, entonces la ecuación i inf k 0 kPkjk llevada a matricial es: Ilustración 5: =Forma Matricial de πi su forma Estado del arte y propuesta de tema Página 4 de 7 Establece claramente que (π1, π2, π3.....)t es un auto vector (a la derecha) de la matriz Pij asociado al auto valor 1. Para esto se debe entender que la matriz de Markov tiene un auto valor igual a 1, más aún, este valor será el mayor, en valor absoluto, si la matriz es primitiva, esto es si todas sus entradas son positivas para alguna potencia de la matriz. La aplicación de una Cadena Ergódica a los problemas más comunes que existen en el entorno cotidiano, se puede observar en la tesis doctoral de Moreno Díaz, sobre los Modelos Multivariables para Variables Ordinales: Aplicaciones en Estudios de Calidad del Servicio, en la misma Moreno Díaz define tres conceptos primordiales para iniciar una aplicación de Markov de este tipo, para Díaz una Cadena es Ergódica si todos los estados de una Cadena de Markov son recurrentes, aperiódicos y se comunican entre sí. Mientras que define un estado recurrente como el estado i, si fii=1. Esto significa que siempre que parta del estado i, se podrá regresar a él (en un tiempo finito). Siguiendo la misma filosofía ergódica se puntualiza el estado periódico cuando existe un estado recurrente i, con periodo k>1, si k es el menor número tal que todas las trayectoria que parte de i y regresan a i, tienen longitud múltiplo de k. Si no es periódico se le dice aperiódico. Ejemplo de aplicación #4: En un modelo para el desplazamiento poblacional, para efectos de una investigación, en un determinado país, una familia puede clasificarse como habitante de zona urbana, rural o suburbana. Se ha estimado que durante un año cualquiera, el 15% de todas las familias urbanas se cambian a zona suburbana y el 5% a zona rural. El 6% de las familias suburbanas pasan a zona urbana y el 4% a zona rural. El 4% de las familias rurales pasan a zona urbana y el 6% a zona suburbana. Pregunta interesante: ¿Existe una probabilidad límite de que el sistema se encuentre en el estado j, después de muchas transiciones, y que esta probabilidad sea independiente del estado inicial? Afirmación: Si P es la matriz de transición de una Cadena de Markov que tiene los estados {1,2,...k}, entonces, para j=1,2,.., k: lim n Pi ,( nj ) j Escrito de otra forma: 1 2 . . . k 1 2 . . . k lim lim P n . . n .. ... ... ... ... a) j 0 k b) j i Pi , j esto es t t i 1 k c ) j 1 j 1 Dado que la matriz del ejemplo 3 es ergódica, se tiene que: 0,80 ( 1 , 2 , 3 ) ( 1 , 2 , 3 ) 0,06 0,04 0,05 0,90 0,04 0,06 0,90 0,15 1 2 3 1 Una opción es: 1 0,80 1 0,06 2 0,04 3 2 0,15 1 0,90 2 0,06 3 1 1 2 3 Cuya solución es: ( 1 , 2 , 3 ) (0.2077 , 0.4918 , 0.3005 ) Es decir, si con el paso del tiempo se mantiene el comportamiento descrito por el modelo (lo cual es muy poco probable) después de muchos años, aproximadamente, el 21% de la población ocupará las zonas urbanas, el 49% las zonas suburbanas y el 30% la rural. La filosofía de las cadenas ergódicas se ve expuesta en la tesis de Ciencias y Telecomunicaciones del Ing. Blasco, tomando un escenario donde hay una cadena estacionaria, con una distribución inicial p(0)=¼. Considerando una distribución inicial distinta la cadena deja de ser estacionaria, sin embargo presenta un comportamiento muy interesante ya que, a largo plazo, cuando pasa mucho tiempo, se alcanza una distribución estacionaria que además resulta ser ¼, es decir: Lim n P(n) De hecho, esta distribución estacionaria es siempre la misma independientemente de cuál haya sido la distribución inicial. Cuando una cadena de Markov se comporta de esta manera, necesariamente es una cadena ergódica. El siguiente resultado permite reconocer cuando una cadena tiene esta propiedad: Teorema #3: Una cadena de Markov es ergódica si y sólo si es irreducible, positivamente recurrente y aperiódica. 1 2 . . . k Para obtener los j se tiene presente las ecuaciones de estado estable: IV.Conclusiones y recomendaciones para el planteamiento de investigaciones futuras Estado del arte y propuesta de tema 1) La aplicación de las cadenas de Markov y propiamente las cadenas ergódicas se ha hecho desde hace más de un siglo y su vigencia a la actualidad sigue siendo de aplicación real en procesos industriales, médicos, comerciales, académicos, meteorológicos, entre otros muchos. Se vuelve aún más interesante el factor de que la teoría no ha cambiado en su conceptualización y sigue aplicando igualmente para cualquier campo cuantitativo de estudio. 2) Independientemente del contexto de aplicación de las cadenas ergódicas, la asignación de las probabilidades y datos recopilados, el método siempre es el mismo para la resolución de un problema. 3) Las cadenas de Markov son mecanismos que ayudan a solventar necesidades creadas en las personas por falta de conocimiento de los eventos futuros en donde la información recolectada no es un buen punto de referencia debido a la variabilidad de los procesos y los sesgos en la recolección de datos; por lo tanto el estudio de eventos anteriores de manera inmediata origina panoramas realistas y aplicables, con estados originales y probabilidades de 1. 4) Los procesos estocásticos “reviven” eventos para colocar al investigador en un presente inmediato, de esta manera puede enterarse antes de continuar con los procesos de recolección de datos si en realidad está en el espacio y tiempo correctos o si en contraposición necesita de nuevas guías que lo orienten hacia las repuestas que necesita para solventar sus objetivos de investigación. 5) Como toda herramienta metodológica las cadenas de Markov presentan resultados que ayudan a aclarar el panorama hacia una determinada situación, sin embargo es el investigador que basado en esa información de verá concluir y tomar las decisiones atinadas que beneficien o refuten de manera satisfactoria las pruebas. 6) La flexibilidad de las cadenas de Markov permiten realizar estudios en ambientes hostiles desde el punto de vista de recolección de datos o metodologías que se adecuen a los objetivos del proyecto, esto porque no se necesitan grandes historiales de información, ya que el presente es necesario para justificar acciones futuras y realistas. V. Propuesta del tema y justificación Una cadena de Markov se puede caracterizar por la probabilidad de ir al estado n+1 condicionada a que antes se encontraba en el estado n: P( X n 1 / X n ) Que es la probabilidad de transición del proceso, la propiedad de las cadenas de Markov es que las Página 5 de 7 transiciones entre los estados, sólo pueden producirse entre estados vecinos, dicho de otra manera, sólo se puede llegar del estado n al estado n+1 ó n-1. Las cadenas de Markov al trabajar con poblaciones asumen la homogeneidad de las mismas, o sea que un cambio o una estructuración por conglomerados o subdivisiones hace que el resultado de cada uno venga precedido por el general al obtenido por Markov (tomado como cadena ergódica), esto genera un “conflicto matemático” porque al realizar nuevos cambios en la población, la data anterior pierde validez y veracidad, o sea se convierte en un error irrevertible en los resultados, sesgando por completo el estudio. Si no se detecta este tipo de problemas en los estudios basados en las cadenas ergódicas muchos datos erróneos serán base para toma de decisiones importantes de gran impacto. Si a esta misma población se le aplica un estudio similar bajo la misma línea teórica, entonces se obtendrán resultados diferentes e inclusive veraces, por ejemplo un estudio de investigación de operaciones sobre la asignación de rutas en la distribución logística de una empresa versus el estudio de Markov sobre los estados actuales y futuros de la misma distribución logística. Las cadenas de Markov al trabajar con poblaciones asumen la homogeneidad de las mismas. Cuando se da un efecto de látigo en una población cada una de los estados involucrados sufre un efecto en incremento o decremento de una variable específica. Markov no detecta esa variabilidad mediante su estudio, es decir que las cadenas ergódicas a pesar de ser precisas en sus resultados, el investigador debe asumir el riesgo de fallar en las probabilidades de estado al no utilizar la metodología apropiada. VI.Bibliografía Kai Lai Chung. Elementary Probability Theory with Stochastic Processess. Third Edition. Editorial Reverté, S.A. Una Aplicación de las Cadenas de Markov en un Proceso industrial. Ing. Jorge Hernán Restrepo, Msc Carlos Alberto Ossa. Universidad Tecnológica de Pereira. Doctorado en Investigación de Operaciones y Estadística, 2004. Modelos Multivariables para Variables Ordinales: Aplicaciones en Estudios de Calidad de Servicio. Msc. Arminda Moreno Díaz. Tesis doctoral, Facultad de Estado del arte y propuesta de tema Informática, Departamento de Inteligencia Artificial. Universidad Politécnica de Madrid. 2001. Cadenas de Markov, Ciencias de las Telecomunicaciones. Ing. Ángel Blasco, Msc. Tesis doctoral, Ingeniería de Telecomunicaciones. Universidad de Alcalá. 2009. Markov Chain Monte Carlo, Innovations and Applications. W S Kendall & F Liang & J-S Wang. World Scientific Publishing Co. Pte. Ltd. Singapore, 2005. Domínguez Machuca. Dirección de Operaciones aspectos tácticos y operativos en la producción y los servicios. Mc Graw Hill. 2008. Hiller, F. y Liebernan, G. (1993). Introducción a la investigación de operaciones. (7ª ed.) México: Mc Graw Hill. Bieman, H., Bonini, C., y Hausman, W. (1999). Análisis cuantitativo para los negocios. (9ª, ed.) Bogotá: Mc Graw Hill. Taha, H. (1998). Investigación de operaciones, una introducción. (6ª.ed). México: Prentice Hall. Página 6 de 7 Estado del arte y propuesta de tema Página 7 de 7
© Copyright 2024 ExpyDoc