Introduzione alle catene di Markov: prerequisiti, proprietà e applicazioni
Pubblicato: 2020-04-14Ti è mai passato per la mente come i meteorologi esperti fanno una previsione precisa del tempo o come Google classifica le diverse pagine web? Come realizzano le affascinanti applicazioni Python nel mondo reale. Questi calcoli sono complessi e coinvolgono diverse variabili che sono dinamiche e possono essere risolte utilizzando stime probabilistiche.
Quando Google ha introdotto il suo algoritmo PageRank, ha rivoluzionato il settore web. E se hai familiarità con quell'algoritmo, devi anche sapere che utilizza le catene di Markov. Nella nostra introduzione alle catene Markov, daremo una breve occhiata a loro e capiremo cosa sono. Quindi iniziamo.
Sommario
Prerequisiti
È essenziale conoscere alcuni concetti prima di iniziare a discutere delle catene di Markov. E la maggior parte di loro provengono dalla teoria della probabilità. Non matematicamente, puoi definire il valore di una variabile casuale come risultato di un evento casuale. Quindi, ad esempio, se la variabile fosse il risultato del lancio di un dado, sarebbe un numero mentre se fosse il risultato del lancio di una moneta, sarebbe un booleano (0 o 1). L'insieme di questi possibili risultati potrebbe essere continuo oltre che discreto.
Quindi possiamo dire che un processo stocastico è una raccolta di variabili casuali che impostano gli indici. Quel set rappresenta diverse istanze temporali. Questo insieme potrebbe essere di numeri reali (processo continuo) o numeri naturali (processo discreto).
Leggi: Strutture di dati integrate in Python
Introduzione alle catene di Markov
Le catene di Markov prendono il nome da Andrey Markov, che aveva sollevato questo concetto per la prima volta nel 1906. Le catene di Markov si riferiscono a processi stocastici che contengono variabili casuali e quelle variabili passano da uno stato all'altro in base a regole e ipotesi di probabilità.
Quali sono quelle regole e ipotesi probabilistiche, chiedi? Quelli sono chiamati Proprietà Markov. Impara di più riguardo Markov Chain in Python Tutorial
Qual è la proprietà Markov?
Esistono molti gruppi di processi casuali, come i modelli autoregressivi e i processi gaussiani. La proprietà di Markov semplifica lo studio di questi processi casuali. Una proprietà di Markov afferma che non otterremmo maggiori informazioni sui risultati futuri di un processo aumentando la nostra conoscenza del suo passato se ne conoscessimo il valore in un determinato momento.
Una definizione più elaborata sarebbe: la proprietà di Markov dice che la probabilità di un processo stocastico dipende solo dal suo stato attuale e dal tempo, ed è indipendente dagli altri stati che aveva prima. Ecco perché è una proprietà senza memoria poiché dipende solo dallo stato attuale del processo.
Una catena di Markov omogenea a tempo discreto è un processo di Marko che ha spazio e tempo degli stati discreti. Possiamo dire che una catena di Markov è una serie discreta di stati e possiede la proprietà di Markov.
Ecco la rappresentazione matematica di una catena di Markov:
X = ( X n ) n N =( X 0 , X 1 , X 2 , …)
Proprietà delle catene di Markov
Diamo un'occhiata alle caratteristiche fondamentali delle catene di Markov per capirle meglio. Non approfondiremo questo argomento poiché lo scopo di questo articolo è farti familiarizzare con il concetto generale delle catene di Markov.
Riducibilità
Le catene di Markov sono irriducibili. Ciò significa che non hanno riducibilità se può raggiungere qualsiasi stato da un altro stato. La catena non ha bisogno di raggiungere uno stato da un altro in un solo passaggio temporale; può farlo in più passaggi temporali. Se possiamo rappresentare la catena con un grafico, allora il grafico sarebbe saldamente connesso.

Aperiodico
Diciamo che il periodo di uno stato è k. Se k = 1, allora questo stato è aperiodico quando qualsiasi tipo di ritorno al suo stato richiede un multiplo di k passi temporali. Quando tutti gli stati di una catena di Markov sono aperiodici, allora possiamo dire che la catena di Markov è aperiodica.
Stati transitori e ricorrenti
Quando esci da uno stato, e c'è una probabilità che tu non possa tornarci, diciamo che lo stato è transitorio. Se invece possiamo tornare ad uno stato con probabilità 1, dopo averlo lasciato, possiamo dire che la proprietà è ricorrente.
Ci sono due tipi di stati ricorrenti che possiamo avere. Il primo è lo stato ricorrente positivo che ha un tempo di ritorno previsto finito e il secondo è lo stato ricorrente nullo che ha un tempo di ritorno previsto infinito. Il tempo di ritorno previsto si riferisce al tempo medio di ricorrenza quando stiamo lasciando lo stato.
Applicazioni delle catene di Markov
Le catene Markov trovano applicazioni in molte aree. Ecco le loro principali applicazioni:
- L'algoritmo PageRank di Google tratta il Web come un modello di Markov. Si può dire che tutte le pagine web sono stati e che i collegamenti tra di loro sono transizioni con probabilità specifiche. In altre parole, possiamo dire che, indipendentemente da ciò che stai cercando su Google, c'è una probabilità limitata che tu finisca su una determinata pagina web.
- Se usi Gmail, devi aver notato la loro funzione di riempimento automatico. Questa funzione prevede automaticamente le tue frasi per aiutarti a scrivere e-mail rapidamente. Le catene Markov aiutano considerevolmente in questo settore in quanto possono fornire previsioni di questo tipo in modo efficace.
- Hai sentito parlare di Reddit? È una significativa piattaforma di social media piena di subreddit (un nome per le comunità in Reddit) di argomenti specifici. Reddit utilizza catene e modelli di Markov per simulare i subreddit per una migliore comprensione degli stessi.
Saperne di più: Evoluzione della modellazione linguistica nella vita moderna
Pensieri finali
Sembra che abbiamo raggiunto la fine della nostra introduzione alle catene di Markov. Ci auguriamo che tu abbia trovato utile questo articolo. Se hai domande o domande, sentiti libero di condividerle con noi attraverso i commenti. Ci piacerebbe sentirti.
Se vuoi saperne di più su questo argomento, dovresti andare alla nostra sezione dei corsi. Lì troverai molte risorse preziose.
Se sei curioso di conoscere la scienza dei dati, dai un'occhiata al Diploma PG in Data Science di IIIT-B e upGrad, creato per i professionisti che lavorano e offre oltre 10 casi di studio e progetti, workshop pratici pratici, tutoraggio con esperti del settore, 1- on-1 con mentori del settore, oltre 400 ore di apprendimento e assistenza al lavoro con le migliori aziende.
Esiste un'applicazione nella vita reale di Markov Chains?
Uno dei test più essenziali per gestire procedure di prova separate è la catena di Markov. In finanza ed economia, le catene di Markov vengono utilizzate per rappresentare una varietà di eventi, come crolli di mercato e valori degli asset. Le catene di Markov sono applicate in un'ampia gamma di aree accademiche, tra cui biologia, economia e persino scenari del mondo reale. I parcheggi hanno un determinato numero di posti disponibili, ma quanti sono disponibili in un dato momento possono essere caratterizzati utilizzando un modello di Markov basato su una combinazione di numerosi fattori o variabili. Le catene di Markov sono spesso utilizzate per creare testi fittizi, articoli lunghi e discorsi.
Cosa significa il termine equilibrio rispetto alle catene di Markov?
La distribuzione πT si dice una distribuzione di equilibrio Se πT P = πT. L'equilibrio si riferisce a una situazione in cui la distribuzione di Xt non cambia mentre avanziamo attraverso la catena di Markov. In effetti, la caratteristica distintiva di una catena di Markov è che i potenziali stati futuri sono fissi, indipendentemente da come il processo sia arrivato al suo stato attuale. In altre parole, la probabilità di passare a una data condizione è completamente determinata dallo stato presente e dalla quantità di tempo trascorso.
Il tempo delle catene di Markov è omogeneo?
Se la probabilità di transizione tra due dati valori di stato in due momenti qualsiasi si basa solo sulla differenza tra quei tempi, il processo è omogeneo nel tempo. Ci sono condizioni affinché una catena di Markov sia omogenea o non omogenea. Le probabilità di transizione di una catena di Markov si dicono omogenee se e solo se sono indipendenti dal tempo. La proprietà di Markov viene mantenuta in catene di Markov non omogenee (nhmc), sebbene le probabilità di transizione possano variare nel tempo. Questa sezione espone i criteri che garantiscono la presenza di un limite di variazione in tali catene, con l'obiettivo di applicarli alla ricottura simulata.