Introdução às Cadeias de Markov: Pré-requisitos, Propriedades e Aplicações
Publicados: 2020-04-14Já passou pela sua cabeça como meteorologistas especialistas fazem uma previsão precisa do tempo ou como o Google classifica diferentes páginas da web? Como eles fazem os fascinantes aplicativos python no mundo real. Esses cálculos são complexos e envolvem diversas variáveis que são dinâmicas e podem ser resolvidas usando estimativas de probabilidade.
Quando o Google introduziu seu algoritmo PageRank, revolucionou a indústria da web. E se você estiver familiarizado com esse algoritmo, também deve saber que ele usa cadeias de Markov. Em nossa introdução às cadeias de Markov, vamos dar uma breve olhada nelas e entender o que são. Então vamos começar.
Índice
Pré-requisitos
É essencial conhecer alguns conceitos antes de começarmos a discutir as cadeias de Markov. E a maioria deles são da teoria da probabilidade. Não matematicamente, você pode definir o valor de uma variável aleatória como resultado de um evento aleatório. Assim, por exemplo, se a variável fosse o resultado do lançamento de um dado, seria um número, enquanto se fosse o resultado de um lançamento de moeda, seria um booleano (0 ou 1). O conjunto desses resultados possíveis pode ser contínuo ou discreto.
Assim, podemos dizer que um processo estocástico é uma coleção de variáveis aleatórias que definem índices. Esse conjunto representa diferentes instâncias de tempo. Esse conjunto pode ser de números reais (processo contínuo) ou de números naturais (processo discreto).
Leia: Construído em estruturas de dados em Python
Introdução às Cadeias de Markov
Cadeias de Markov recebem o nome de Andrey Markov, que trouxe esse conceito pela primeira vez em 1906. Cadeias de Markov referem-se a processos estocásticos que contêm variáveis aleatórias, e essas variáveis transitam de um estado para outro de acordo com regras e suposições de probabilidade.
Quais são essas regras e suposições probabilísticas, você pergunta? Essas são chamadas de Propriedades de Markov. Aprender mais sobre Cadeia de Markov no Tutorial Python
O que é a propriedade de Markov?
Existem muitos grupos de processos aleatórios, como modelos autorregressivos e processos gaussianos. A propriedade de Markov facilita bastante o estudo desses processos aleatórios. Uma propriedade de Markov afirma que não obteríamos mais informações sobre os resultados futuros de um processo aumentando nosso conhecimento sobre seu passado se conhecêssemos seu valor em um determinado momento.
Uma definição mais elaborada seria: a propriedade de Markov diz que a probabilidade de um processo estocástico depende apenas de seu estado atual e do tempo, e é independente dos outros estados que tinha antes. É por isso que é uma propriedade sem memória, pois depende apenas do estado atual do processo.
Uma cadeia de Markov de tempo discreto homogênea é um processo de Marko que possui espaço e tempo de estados discretos. Podemos dizer que uma cadeia de Markov é uma série discreta de estados e possui a propriedade de Markov.
Aqui está a representação matemática de uma cadeia de Markov:
X = ( X n ) n N =( X 0 , X 1 , X 2 , …)
Propriedades das Cadeias de Markov
Vamos dar uma olhada nas características fundamentais das cadeias de Markov para entendê-las melhor. Não nos aprofundaremos muito neste tópico, pois o objetivo deste artigo é familiarizá-lo com o conceito geral de cadeias de Markov.
Redutibilidade
As cadeias de Markov são irredutíveis. Isso significa que eles não têm redutibilidade se podem atingir qualquer estado de outro estado. A cadeia não precisa alcançar um estado de outro em apenas uma única etapa de tempo; pode fazê-lo em várias etapas de tempo. Se pudermos representar a cadeia com um grafo, então o grafo estará firmemente conectado.

Aperiódico
Digamos que o período de um estado seja k. Se k = 1, então este estado é aperiódico quando qualquer tipo de retorno ao seu estado requer algum múltiplo de k passos de tempo. Quando todos os estados de uma cadeia de Markov são aperiódicos, então podemos dizer que a cadeia de Markov é aperiódica.
Estados transitórios e recorrentes
Quando você sai de um estado, e há uma probabilidade de que você não possa retornar a ele, dizemos que o estado é transitório. Por outro lado, se pudermos retornar a um estado com probabilidade 1, depois de sairmos dele, podemos dizer que a propriedade é recorrente.
Existem dois tipos de estados recorrentes que podemos ter. O primeiro é o estado recorrente positivo que tem um tempo de retorno esperado finito, e o segundo é o estado recorrente nulo que tem um tempo de retorno esperado infinito. O tempo de retorno esperado refere-se ao tempo médio de recorrência quando estamos saindo do estado.
Aplicações das Cadeias de Markov
As cadeias de Markov encontram aplicações em muitas áreas. Aqui estão suas aplicações proeminentes:
- O algoritmo PageRank do Google trata a web como um modelo de Markov. Você pode dizer que todas as páginas da web são estados e os links entre eles são transições que possuem probabilidades específicas. Em outras palavras, podemos dizer que não importa o que você esteja pesquisando no Google, há uma probabilidade finita de você terminar em uma determinada página da web.
- Se você usa o Gmail, deve ter notado o recurso de preenchimento automático. Esse recurso prevê automaticamente suas frases para ajudá-lo a escrever e-mails rapidamente. As cadeias de Markov ajudam consideravelmente nesse setor, pois podem fornecer previsões desse tipo de maneira eficaz.
- Você já ouviu falar do Reddit? É uma plataforma de mídia social significativa repleta de subreddits (um nome para comunidades no Reddit) de tópicos específicos. O Reddit usa cadeias e modelos de Markov para simular subreddits para uma melhor compreensão do mesmo.
Saiba mais: Evolução da Modelagem da Linguagem na Vida Moderna
Pensamentos finais
Parece que chegamos ao fim de nossa introdução às cadeias de Markov. Esperamos que você tenha achado este artigo útil. Se você tiver dúvidas ou perguntas, sinta-se à vontade para compartilhá-las conosco através dos comentários. Adoraríamos ouvir de você.
Se você quiser saber mais sobre esse assunto, acesse nossa seção de cursos. Você encontrará muitos recursos valiosos lá.
Se você está curioso para aprender sobre ciência de dados, confira o PG Diploma in Data Science do IIIT-B & upGrad, que é criado para profissionais que trabalham e oferece mais de 10 estudos de caso e projetos, workshops práticos práticos, orientação com especialistas do setor, 1- on-1 com mentores do setor, mais de 400 horas de aprendizado e assistência de trabalho com as principais empresas.
Existe alguma aplicação na vida real das Cadeias de Markov?
Um dos testes mais essenciais para lidar com procedimentos de teste separados é a cadeia de Markov. Em finanças e economia, as cadeias de Markov são usadas para representar uma variedade de eventos, como quebras de mercado e valores de ativos. As cadeias de Markov são aplicadas em uma ampla gama de áreas acadêmicas, incluindo biologia, economia e até cenários do mundo real. Os estacionamentos têm um número definido de vagas disponíveis, mas quantas estão disponíveis em um determinado momento pode ser caracterizada usando um modelo de Markov baseado em uma combinação de vários fatores ou variáveis. As cadeias de Markov são frequentemente usadas para criar textos fictícios, artigos longos e discursos.
O que significa o termo equilíbrio em relação às Cadeias de Markov?
A distribuição πT é dita uma distribuição de equilíbrio Se πT P = πT. Equilíbrio refere-se a uma situação em que a distribuição de Xt não muda à medida que avançamos na cadeia de Markov. De fato, a característica distintiva de uma cadeia de Markov é que os estados futuros potenciais são fixos, independentemente de como o processo chegou ao seu estado atual. Em outras palavras, a probabilidade de transição para qualquer condição é completamente determinada pelo estado atual e pela quantidade de tempo que se passou.
As Cadeias de Markov são homogêneas no tempo?
Se a probabilidade de transição entre dois valores de estado dados em quaisquer dois tempos depende apenas da diferença entre esses tempos, o processo é homogêneo no tempo. Existem condições para que uma cadeia de Markov seja homogênea ou não homogênea. As probabilidades de transição de uma cadeia de Markov são ditas homogêneas se e somente se elas são independentes do tempo. A propriedade de Markov é mantida em cadeias de Markov não homogêneas (nhmc), embora as probabilidades de transição possam variar com o tempo. Esta seção estabelece os critérios que garantem a presença de um limite de variação nessas cadeias, com o objetivo de aplicá-los ao recozimento simulado.