Introducción a las cadenas de Markov: requisitos previos, propiedades y aplicaciones

Publicado: 2020-04-14

¿Alguna vez te ha pasado por la cabeza cómo expertos meteorólogos hacen una predicción precisa del tiempo o cómo Google clasifica diferentes páginas web? Cómo hacen las fascinantes aplicaciones de Python en el mundo real. Estos cálculos son complejos e involucran varias variables que son dinámicas y pueden resolverse mediante estimaciones de probabilidad.

Cuando Google introdujo su algoritmo PageRank, revolucionó la industria web. Y si está familiarizado con ese algoritmo, también debe saber que usa cadenas de Markov. En nuestra introducción a las cadenas de Markov, las veremos brevemente y entenderemos qué son. Entonces empecemos.

Tabla de contenido

requisitos previos

Es esencial conocer algunos conceptos antes de comenzar a discutir las cadenas de Markov. Y la mayoría de ellos son de la teoría de la probabilidad. No matemáticamente, puede definir el valor de una variable aleatoria como resultado de un evento aleatorio. Entonces, por ejemplo, si la variable fuera el resultado de tirar un dado, sería un número, mientras que si fuera el resultado de lanzar una moneda, sería un valor booleano (0 o 1). El conjunto de estos posibles resultados podría ser tanto continuo como discreto.

Entonces podemos decir que un proceso estocástico es una colección de variables aleatorias que establecen índices. Ese conjunto representa diferentes instancias de tiempo. Este conjunto puede ser de números reales (proceso continuo) o de números naturales (proceso discreto).

Leer: Estructuras de datos integradas en Python

Introducción a las Cadenas de Markov

Las cadenas de Markov reciben su nombre de Andrey Markov, quien mencionó este concepto por primera vez en 1906. Las cadenas de Markov se refieren a procesos estocásticos que contienen variables aleatorias, y esas variables pasan de un estado a otro de acuerdo con las reglas y suposiciones de probabilidad.

¿Cuáles son esas reglas y suposiciones probabilísticas, te preguntarás? Esas se llaman Propiedades de Markov. Aprender más sobre Tutorial de cadenas de Markov en Python

¿Qué es la propiedad de Markov?

Hay muchos grupos de procesos aleatorios, como modelos autorregresivos y procesos gaussianos. La propiedad de Markov facilita bastante el estudio de estos procesos aleatorios. Una propiedad de Markov establece que no obtendríamos más información sobre los resultados futuros de un proceso aumentando nuestro conocimiento sobre su pasado si conocemos su valor en un momento determinado.

Una definición más elaborada sería: la propiedad de Markov dice que la probabilidad de un proceso estocástico solo depende de su estado y tiempo actual, y es independiente de los otros estados que tenía antes. Es por eso que es una propiedad sin memoria, ya que solo depende del estado actual del proceso.

Una cadena de Markov homogénea en tiempo discreto es un proceso de Marko que tiene espacio y tiempo de estados discretos. Podemos decir que una cadena de Markov es una serie discreta de estados y posee la propiedad de Markov.

Aquí está la representación matemática de una cadena de Markov:

X = ( X norte ) norte norte =( X 0 , X 1 , X 2 , …)

Propiedades de las cadenas de Markov

Echemos un vistazo a las características fundamentales de las cadenas de Markov para comprenderlas mejor. No profundizaremos demasiado en este tema ya que el propósito de este artículo es familiarizarlo con el concepto general de las cadenas de Markov.

Reducibilidad

Las cadenas de Markov son irreducibles. Eso significa que no tienen reducibilidad si puede llegar a cualquier estado desde otro estado. La cadena no necesita llegar de un estado a otro en un solo paso de tiempo; puede hacerlo en múltiples pasos de tiempo. Si podemos representar la cadena con un gráfico, entonces el gráfico estaría firmemente conectado.

Aperiódico

Digamos que el período de un estado es k. Si k = 1, entonces este estado es aperiódico cuando cualquier tipo de retorno a su estado requiere algún múltiplo de k pasos de tiempo. Cuando todos los estados de una cadena de Markov son aperiódicos, entonces podemos decir que la cadena de Markov es aperiódica.

Estados transitorios y recurrentes

Cuando sales de un estado y existe la probabilidad de que no puedas regresar a él, decimos que el estado es transitorio. Por otro lado, si podemos volver a un estado con probabilidad 1, después de haberlo dejado, podemos decir que la propiedad es recurrente.

Hay dos tipos de estados recurrentes que podemos tener. El primero es el estado recurrente positivo que tiene un tiempo de retorno esperado finito, y el segundo es el estado recurrente nulo que tiene un tiempo de retorno esperado infinito. El tiempo de regreso esperado se refiere al tiempo medio de recurrencia cuando salimos del estado.

Aplicaciones de las Cadenas de Markov

Las cadenas de Markov encuentran aplicaciones en muchas áreas. Estas son sus aplicaciones destacadas:

  • El algoritmo PageRank de Google trata la web como un modelo de Markov. Puedes decir que todas las páginas web son estados y los enlaces entre ellas son transiciones que poseen probabilidades específicas. En otras palabras, podemos decir que no importa lo que esté buscando en Google, hay una probabilidad finita de que termine en una página web en particular.
  • Si usa Gmail, debe haber notado su función de Autocompletar. Esta característica predice automáticamente sus oraciones para ayudarlo a escribir correos electrónicos rápidamente. Las cadenas de Markov ayudan considerablemente en este sector, ya que pueden proporcionar predicciones de este tipo de manera efectiva.
  • ¿Has oído hablar de Reddit? Es una importante plataforma de redes sociales que está llena de subreddits (un nombre para las comunidades en Reddit) de temas específicos. Reddit usa cadenas y modelos de Markov para simular subreddits para una mejor comprensión de los mismos.

Saber más: Evolución del Modelado del Lenguaje en la Vida Moderna

Pensamientos finales

Parece que hemos llegado al final de nuestra introducción a las cadenas de Markov. Esperamos que este artículo le haya resultado útil. Si tiene alguna pregunta o consulta, no dude en compartirla con nosotros a través de los comentarios. Nos encantaría saber de usted.

Si desea obtener más información sobre este tema, debe dirigirse a nuestra sección de cursos. Allí encontrará muchos recursos valiosos.

Si tiene curiosidad por aprender sobre ciencia de datos, consulte el Diploma PG en ciencia de datos de IIIT-B y upGrad, creado para profesionales que trabajan y ofrece más de 10 estudios de casos y proyectos, talleres prácticos, tutoría con expertos de la industria, 1- on-1 con mentores de la industria, más de 400 horas de aprendizaje y asistencia laboral con las mejores empresas.

¿Hay alguna aplicación en la vida real de las Cadenas de Markov?

Una de las pruebas más esenciales para tratar procedimientos judiciales separados es la cadena de Markov. En finanzas y economía, las cadenas de Markov se utilizan para representar una variedad de eventos, como caídas del mercado y valores de activos. Las cadenas de Markov se aplican en una amplia gama de áreas académicas, que incluyen biología, economía e incluso escenarios del mundo real. Los estacionamientos tienen un número fijo de lugares disponibles, pero cuántos están disponibles en un momento dado se puede caracterizar mediante un modelo de Markov basado en una combinación de numerosos factores o variables. Las cadenas de Markov se utilizan con frecuencia para crear textos ficticios, artículos extensos y discursos.

¿Qué significa el término equilibrio con respecto a las Cadenas de Markov?

Se dice que la distribución πT es una distribución de equilibrio si πT P = πT. El equilibrio se refiere a una situación en la que la distribución de Xt no cambia a medida que avanzamos a través de la cadena de Markov. De hecho, la característica distintiva de una cadena de Markov es que los posibles estados futuros son fijos, independientemente de cómo llegó el proceso a su estado actual. En otras palabras, la probabilidad de hacer la transición a cualquier condición dada está completamente determinada por el estado actual y la cantidad de tiempo que ha pasado.

¿Las Cadenas de Markov son homogéneas en el tiempo?

Si la probabilidad de transición entre dos valores de estado dados en dos momentos cualesquiera se basa solo en la diferencia entre esos tiempos, el proceso es homogéneo en el tiempo. Hay condiciones para que una cadena de Markov sea homogénea o no homogénea. Se dice que las probabilidades de transición de una cadena de Markov son homogéneas si y solo si son independientes del tiempo. La propiedad de Markov se mantiene en cadenas de Markov no homogéneas (nhmc), aunque las probabilidades de transición pueden variar con el tiempo. En este apartado se exponen los criterios que garantizan la presencia de un límite de variación en dichas cadenas, con el fin de aplicarlos al recocido simulado.