martes, 16 de noviembre de 2010

1. HISTORIA DE ANDREI ANDREYEVICH MARKOV.
2. CONCEPTOS Y DEFINICIONES.

3. MATRIZ DE TRANSICION.

4. ESTADOS ABSORBENTES.

5.  GRAFICOS DE EJEMPLO SOBRE CADENAS DE MARKOV.

6. EJERCICIOS PROPUESTOS.

7. APLICASION DE LA CADENA DE MARKOV.



1. HISTORIA DE ANDREI ANDREYEVICH MARKOV.

Nacido el 14 de junio de 1856, en San Peterburgo, Rusia, fallecido el 20 de julio de 1922, en San Peterburgo, Rusia.


Andrei Andreyevich Markov, se graduó como matemático en el año 1878, en la Universidad San Petersburgo, donde, a contar del año 1886, comenzó su carrera como profesor. En sus inicios laborales, focalizó su trabajo en análisis y teoría del número, fracciones continuas, límite de integrales, teoría de aproximación y la serie de convergencias.

Después del año 1900, Markov comienza a aplicar el método de fracciones continuas, iniciado por su profesor Pafnuty Chebyshev, a la teoría de las probabilidades. A su vez, estudia las secuencias de las variables mutuamente dependientes, esperando con ello establecer, de manera general, las leyes limitantes de las probabilidades. Probó el teorema del límite central bajo supuestos bastante generales.

Markov es recordado, particularmente, por su estudio de las cadenas secuenciales, que consiste en variables al azar en las cuales la variable futura es determinada por la preexistente pero independiente de la manera en que ésta se generó de sus precursores. Este trabajo lanzó la teoría de los procesos estocásticos.

En 1923, Norbert Wiener se convirtió en el primero que trató rigurosamente el proceso continuo de Markov. La fundación de una teoría general fue proporcionada durante los años 30 por Andrei Kolmogorov. Markov también estuvo interesado en la poesía e hizo estudios de los distintos estilos poético. Kolmogorov tenía intereses similares. Tuvo un hijo (del mismo nombre) que nació el 9 de septiembre de 1903 y siguió las huellas de su padre, llegando a convertirse también en un matemático de renombre.





2. CONCEPTOS Y DEFINICIONES.


Pruebas del proceso: eventos que disparan transiciones de un estado a otro.  En muchas aplicaciones, periodos  de tiempo sucesivos.

Probabilidad de transición: dado que el sistema esta en estado idurante un periodo, la probabilidad de transición pij es la probabilidad de que el sistema este en el estado j durante el siguiente periodo.

Probabilidad de estado: es la probabilidad de que el sistema este en cualquier estado particular.

Probabilidad de estado estable: La probabilidad de que el sistema este en cualquier estado particular después de un numero elevado de transiciones.  Una vez  alcanzado este estado la probabilidad de estado no cambia de un periodo a otro.

Estado de absorción: se da cuando la probabilidad de que ocurra una transición de este estado es cero.  Por lo que una vez que el sistema a hecho una transición a un estado de absorción, quedará ahí.

Matriz fundamental: Matriz necesaria para el cómputo de probabilidades asociadas con el estado de absorción de un proceso de Markov.

CONCEPTO DE CADENA DE MARKOV: Las cadenas de Markov son una herramientas para analizar el comportamiento y el gobierno de determinados tipos de procesos estocásticos, esto es, procesos que evolucionan de forma no deterministicas a lo largo del tiempo en torno a un conjunto de estados.

Una cadena de Markov, por lo tanto, representa un  sistema de varia su estado a lo largo del tiempo, siendo cada cambio una transición del sistema. Dichos cambios no están predeterminado, aunque si lo esta la probabilidad del próximo estado en función de los estados anteriores, probabilidad que es constante a lo largo del tiempo (sistema homogéneo en el tiempo). Eventualmente, en una transición, el nuevo estado puede ser el mismo que el anterior y es posible que exista la posibilidad de influir en las probabilidades de transición actuando adecuadamente sobre el sistema (decisión).





3. MATRIZ DE TRANSICION.


Una matriz de transición para una cadena de Markov de n estado es una matriz de n X n con todos los registros no negativos y con la propiedad adicional de que la suma de los registros de cada columna (o fila) es 1. Por ejemplo: las siguientes son matrices de transición.

 

El comportamiento de cambo de marca de los consumidores h sido modelado como una cadena de Markov, para ayudar a desarrollar las estrategias de mercadotecnia. A manera de ejemplo, obsérvese el siguiente comportamiento de cambio de marca descrito en la siguiente tabla para una muestra de 250consumidores de un producto.

Número de consumidores que cambian la marca i en la semana 6 j en la semana 7.

 

El primer renglón indica que, de 80 personas que compraron la marca 1 en la semana 6, 72 volvieron a adquirirla en la semana 7, 4 prefirieron la marca 2 y 4 la marca 3. Sin embargo, nótese que 12 personas cambiaron la marca 2 por la marca 1 y 2 personas cambiaron la marca 3 por la marca 1. A si pues, para la marca 1, la perdida de 8 clientes se compensó con creces por la conquista de 14 clientes. Entre la sexta y la séptima semanas, la marca 1 aumentó su participación en el mercado de 32%(80/250) a  34,4% (86/250).

La matriz de probabilidades de transición para la tabla de contingencia es P:


La matriz P es una estimación de la matriz verdadera, pues solamente representa el comportamiento de una muestra de 250 consumidores, durante a un periodo de dos semanas. Los elementos P11,  P22   y  P33  de la matriz P son medidas del “poder de retención” de las tres marcas; los restantes elementos Pij reflejan el “poder de atracción” de la marca j, suponiendo que la compra anterior haya sido a favor de la marca i. Los elementos de cada fila reflejan la probabilidad de que una marca retenga a sus clientes o los pierda frente a otras marcas. Los elementos de cada columna resumen la probabilidad de que una marca retenga a sus clientes o conquiste a otros a costa de cada marca de la competencia.

Suponiendo que la participación en los mercados que tienen la tres marcas del ejemplo son 30%, 38% y 32&, respectivamente, durante la séptima semana. Si la matriz de transición P (maestral), se considera una buena estimación de la verdadera matriz de transición (poblacional), es posible predecir las participaciones de mercado esperada en la octava semana por medio de la multiplicación de matrices. Así entonces:

 

Las participaciones en el mercado predichas durante la octava semana son  32,08%, 37,64% y 30,28%, respectivamente para la tres marcas.

Generalizando, podemos decir que si un proceso de Markov donde el sistema puede encontrarse en cualquiera de m estados posibles, las probabilidades pueden escribirse por medio del vector X=(x1   x2……..xm) donde xj representa probabilidad de que el sistema se halle en el estado j. En los estados actuales de un proceso de Markov Xk, los estados después del siguiente experimento (transición) pueden calcularse mediante la multiplicación con de matrices.

XK+1   = X K  P

Con base en la ecuación anterior se puede afirmar que:

 
Generalizando:
 
Ya que en este caso X0 corresponde al vector X7.

 
Fuente:


4.  ESTADOS ABSORBENTES.


Se trata de estados que constituyen por si mismos una sola clase final, puesto que la única transición posible es ir otra vez al mismo (ya que las probabilidades de pasar a cualquier de los otros son cero). Matemáticamente significa que la fila correspondiente de la matriz estará toda a ceros excepto un 1 en la diagonal principal por lo tanto se le denomina como matriz no regular; el significado de este tipo de situaciones suele ser el de un sistema que ha llegado a una situación de degradación, que ya no puede evolucionar mas, etc. En otras palabras generalizando:

Una cadena de markov absorbente contiene p estados transitorios y q estados absorbentes. Con base a esto la matriz se representa así:

 

NOTA: Donde R es una submatriz, y la letra Q corresponde al complemento de R (submatriz).

Fuente:  ANDERSON David R. Métodos cuantitativos para los negocios. Editorial Thomson. año 2004



5.  GRAFICOS DE EJEMPLO SOBRE CADENAS DE MARKOV.

REPRESENTACIÓN GRAFICA DE UNA MATRIZ  DE TRANSICIÓN: Es el arreglo numérico donde se condensa las probabilidades de un estado a otro. A través de una grafica de matriz de transición se puede observar el comportamiento estacionario representado por una cadena de Markov tal que los estados representan la categoría en que se encuentre clasificado. Como se aprecia a continuación:

 
La matriz de transición es para una política estacionaria dada:

 



6. EJERCICIOS PROPUESTOS.


1. El centro de cómputo en Rockbottom University sufre paros de las computadoras.  Supongamos que los ensayos de un proceso de Markov asociados se definen como periodo de una hora y la probabilidad de que el sistema este en un estado de operación o en un estado de paro se base en el estado del sistema durante el periodo anterior.  Los datos históricos muestran las siguientes probabilidades de transición.


a)    Si es sistema inicialmente opera, ¿Cuál es la probabilidad de que el sistema este detenido en la siguiente hora de operación?

b)    ¿Cuáles son las probabilidades de un estado estable del sistema en el estado de operación y en el detenido?

2. Cada familia estadounidense se clasifica según donde vive como urbana, rural o suburbana. Durante un año especifico, 15% de las familias urbanas se mudaron a una ubicación suburbana, y 5 % se mudaron a un área rural; también, 6 % de las familias suburbanas se trasladaron a un área urbana y 4% se pasaron a una ubicación rural; por ultimo, 4% de las familias rurales se fueron a un área urbana y 6% se cambiaron a un lugar suburbano.

a)    Si una familia ahora vive en un lugar urbano, ¿Cuál es la probabilidad de que viva en un área urbana dos años a partir de ahora? ¿Un área suburbana? ¿Un área rural?

b)    Suponga que en el presente, 40% de las familias viven en un área urbana, 35% viven en un área suburbana y 25% viven en un área rural. Dos anos a partir de ahora, ¿Qué porcentajes de familias estadounidenses vivirán en un área urbana?

3. Dado la siguiente matriz de transición con los estados 1 y 2 como estado absorbentes, ¿Cuál es la probabilidad de que las unidades en los estados 3 y 4 terminen en cada uno de los estados absorbentes?


4. Woody´s Christmas Tree Farm cuenta con dos tipos de arboles: arboles pequeños (de 5 pies o menos) y grandes (mas de 5 pies).  Cada año, 16% de los arboles pequeños muere, 19% se venden a 30 dólares cada uno y 10% crece hasta superar los 5 pies.  Cada año 5% de los arboles grandes muere y 45% se vende a 45 dólares cada uno.

a)    ¿Que porcentaje del total de los arboles se venderá finalmente a 30 dólares?

b)    ¿Qué porcentaje de arboles se venderán a 45?

c)    ¿Qué porcentaje de arboles de arboles grandes se venderán?

d)    Sugerencia: utilice 2 categorías “vendido a 30 dólares y vendido a 45 dólares”


Fuentes:
  • JOHNSON David B, MOWRY Thomas A. Matemáticas finitas: aplicaciones prácticas. Año 2000. Editorial Thomson. Ejercicio propuesto 4 pagina 361.
  • ANDERSON David R. Métodos cuantitativos para los negocios. Editorial Thomson. año 2004. ejercicio propuesto 1 pagina 720 y 3 pagina 722.


7. APLICASION DE LA CADENA DE MARKOV.


El modelo creado por andrei markov ha encontrado hoy múltiples aplicaciones en campos muy diversos como biología, economía y en aplicaciones de internet como la construcción de paginas usadas hoy por el buscador Google.

Las aplicaciones más usuales de esta técnica en el campo comercial se han centrado en el análisis de las preferencias de marcas por el consumidor y de la participación en el mercado.