Spiegazione del concetto di catene di Markov [con esempio]

Pubblicato: 2020-12-18

Sommario

introduzione

Le catene Markov sono abbastanza comuni, intuitive e sono state utilizzate in più domini come l'automazione della creazione di contenuti, la generazione di testi, la modellazione finanziaria, i sistemi di controllo automatico della velocità, ecc. Il famoso marchio Google utilizza la catena Markov nel suo algoritmo di ranking delle pagine per determinare l'ordine di ricerca .

Le catene di Markov sono relativamente semplici e non richiedono alcun concetto matematico o conoscenze statistiche avanzate per l'implementazione. Se hai una buona comprensione delle catene di Markov, diventa più facile imparare la modellazione probabilistica e le tecniche di scienza dei dati.

Questo articolo ti darà una profonda comprensione di cosa sono le catene di Markov e come funzionano, con l'aiuto di esempi.

Cos'è una catena di Markov?

Una catena di Markov è un modello matematico che fornisce probabilità o previsioni per lo stato successivo basandosi esclusivamente sullo stato dell'evento precedente. Le previsioni generate dalla catena di Markov sono buone come si farebbero osservando l'intera storia di quello scenario.

È un modello che sperimenta la transizione da uno stato all'altro in base ad alcune condizioni di probabilità. Una caratteristica che definisce la catena di Markov è che, indipendentemente da come viene raggiunto lo stato attuale, gli stati futuri sono fissi. Il possibile risultato del prossimo stato dipende esclusivamente dallo stato attuale e dal tempo tra gli stati.

Leggi: Markov Chain in Python Tutorial

Concetto di catena di Markov con esempi

Supponiamo di voler prevedere le condizioni meteorologiche per domani. Ma sai già che potrebbero esserci solo due possibili stati per il tempo, cioè nuvoloso e soleggiato. Come farai a prevedere il tempo del giorno successivo usando le catene Markov?

Bene, inizierai a osservare lo stato meteorologico attuale e potrebbe essere soleggiato o nuvoloso. Supponiamo che oggi ci sia il sole. La condizione climatica attraversa sempre diverse transizioni. Raccoglierai i dati meteorologici degli ultimi anni e calcolerai che le possibilità di avere una giornata nuvolosa dopo una giornata di sole sono 0,35.

Hai anche osservato che le possibilità di ottenere una giornata di sole dopo una giornata di sole sono 0,65. Questa distribuzione ti aiuterà a prevedere che anche il giorno successivo sarà soleggiato. È così che lo stato meteorologico attuale ti aiuta a prevedere lo stato futuro e puoi applicare la stessa logica per prevedere le condizioni meteorologiche per i giorni a venire.

L'esempio sopra illustra la proprietà di Markov che la catena di Markov è senza memoria. Le condizioni meteorologiche del giorno successivo non dipendono dai passaggi che hanno portato alle condizioni meteorologiche del giorno corrente. La distribuzione di probabilità si arriva solo sperimentando il passaggio dal giorno corrente al giorno successivo.

Un altro esempio della catena Markov sono le abitudini alimentari di una persona che mangia solo frutta, verdura o carne. Le abitudini alimentari sono regolate dalle seguenti regole:

  • La persona mangia solo una volta al giorno.
  • Se una persona ha mangiato frutta oggi, domani mangerà verdura o carne con la stessa probabilità.
  • Se oggi ha mangiato verdure, domani mangerà verdure con una probabilità di 1/10, frutta con una probabilità di 1/40 e carne con una probabilità di 1/50.
  • Se oggi ha mangiato carne, domani mangerà verdure con una probabilità di 4/10, frutta con una probabilità di 6/10. Non mangerà più carne domani.

Puoi facilmente modellare le sue abitudini alimentari usando le catene Markov poiché la sua scelta per il giorno successivo dipende esclusivamente da ciò che ha mangiato oggi, indipendentemente da ciò che ha mangiato ieri o il giorno prima.

Leggi anche: Introduzione alle catene di Markov

Matrice di transizione a catena di Markov

Finora, abbiamo visto come possiamo prevedere la probabilità di transizione da uno stato all'altro. Ma che ne dici di trovare la distribuzione di probabilità delle transizioni che si verificano su più passaggi. Puoi scoprire la distribuzione di probabilità delle transizioni su più passaggi usando la matrice di transizione a catena di Markov.

La matrice di transizione della catena di Markov non è altro che la distribuzione di probabilità delle transizioni da uno stato all'altro. Si chiama matrice di transizione perché mostra le transizioni tra diversi stati possibili.

La probabilità associata a ogni stato è chiamata distribuzione di probabilità di quello stato. È lo strumento più importante utilizzato nell'analisi della catena di Markov. Ad esempio, se esiste un numero N di stati possibili, la matrice di transizione (P) sarebbe la seguente

P = N x N matrice

Dove una voce in una riga (I, J) rappresenta la probabilità di transizione dallo stato I allo stato J. Ogni riga della matrice di transizione P deve sommare a 1.

Per rappresentare una catena di Markov, avrai anche bisogno di un vettore di stato iniziale che descriva l'inizio in ciascuno degli N possibili stati. Puoi rappresentare il vettore di stato iniziale (X) come

X = N x 1 matrice

Supponiamo di voler scoprire la probabilità di passare dallo stato I allo stato J su M passi multipli. Hai indicato tre possibili stati, ovvero mercato rialzista, mercato ribassista e mercato stagnante.

Nell'esempio sopra, la prima colonna della matrice di transizione indica lo stato del mercato rialzista, il secondo mercato ribassista e la terza indica il mercato stagnante. Anche le righe corrispondono in modo simile.

Nella matrice di transizione, la probabilità di transizione è calcolata elevando P alla potenza del numero di passi (M). Per una transizione in 3 fasi, puoi determinare la probabilità aumentando P a 3.

Moltiplicando la matrice P3 sopra, puoi calcolare la distribuzione di probabilità di transizione da uno stato all'altro.

Conclusione

Dal momento che hai capito come funziona la catena di Markov, puoi facilmente implementarli in qualsiasi affermazione di problema sia per raggiungere una soluzione che per automatizzare. Le catene di Markov sono molto potenti e forniscono una base per altre tecniche di modellazione più avanzate.

La comprensione della catena di Markov può portarti ad acquisire conoscenze più approfondite in diverse tecniche come la modellazione breve e il campionamento.

Se sei curioso di conoscere Python, la scienza dei dati, dai un'occhiata al Diploma PG in Data Science di IIIT-B e upGrad, creato per i professionisti che lavorano e offre oltre 10 casi di studio e progetti, workshop pratici pratici, tutoraggio con esperti del settore, 1 contro 1 con mentori del settore, oltre 400 ore di apprendimento e assistenza al lavoro con le migliori aziende.

Ci sono casi d'uso reali interessanti per la catena di Markov?

Sì, ci sono molti casi d'uso interessanti nella vita reale delle catene di Markov, dalla creazione di testo alla modellazione finanziaria. La maggior parte dei generatori di testo utilizza le reti Markov. Il sistema a catena è ampiamente utilizzato per generare testi falsi, articoli di grandi dimensioni e compilare discorsi. Anche i generatori di nomi che di solito vediamo su Internet utilizzano la catena di Markov. Un'altra nota applicazione delle catene di Markov è la previsione delle parole imminenti. Sono anche utili per il completamento automatico e i consigli. Il Google PageRank e il Subreddit Simulator sono esempi importanti, che utilizzano catene di Markov per automatizzare la produzione di materiale per un intero subreddit.

La catena di Markov è fondamentale durante l'apprendimento della scienza dei dati?

Anche se le catene di Markov non sono obbligatorie per gli studenti di scienza dei dati, possono fornire un approccio eccellente all'apprendimento di modelli probabilistici e tecniche di scienza dei dati. Le catene di Markov sono teoricamente ragionevolmente semplici e possono essere implementate senza la necessità di idee statistiche o matematiche complesse. L'applicazione più importante della scienza dei dati è fare previsioni e i data scientist utilizzano la probabilità condizionale delle catene di Markov per fare queste previsioni. Prende il nome dalla caratteristica senza memoria di Stochastic Processes, che afferma che la distribuzione degli stati futuri di qualsiasi processo è determinata solo dallo stato attuale di quei processi.

In che modo la catena di Markov aiuta nell'algoritmo PageRank di Google?

L'algoritmo PageRank di Google è un noto algoritmo di ranking basato su link. Invece di valutare le pagine in base al loro contenuto, Page rank le classifica in base alla loro struttura interconnessa. Esaminando semplicemente lo stato presente, la catena di Markov può aiutare ad anticipare il comportamento di un sistema in transizione da uno stato all'altro.

Quando un utente inserisce una query in un motore di ricerca, l'algoritmo PageRank identifica i siti sul Web che corrispondono alla parola della query e mostra quelle pagine all'utente nell'ordine del suo PageRank utilizzando la rete Markov. L'algoritmo PageRank determina il significato di un sito Web esclusivamente in base alla struttura dei collegamenti del Web anziché al contenuto della pagina.