Introducere în lanțurile Markov: cerințe preliminare, proprietăți și aplicații
Publicat: 2020-04-14V-a trecut vreodată prin minte modul în care meteorologii experți fac o predicție precisă a vremii sau cum clasifică Google diferite pagini web? Cum creează aplicațiile fascinante Python în lumea reală. Aceste calcule sunt complexe și implică mai multe variabile care sunt dinamice și pot fi rezolvate folosind estimări de probabilitate.
Când Google și-a introdus algoritmul PageRank, a revoluționat industria web. Și dacă ești familiarizat cu acel algoritm, trebuie să știi și că folosește lanțuri Markov. În introducerea noastră despre lanțurile Markov, le vom arunca o privire pe scurt și vom înțelege ce sunt. Asadar, haideti sa începem.
Cuprins
Cerințe preliminare
Este esențial să cunoaștem câteva concepte înainte de a începe să discutăm despre lanțurile Markov. Și majoritatea sunt din teoria probabilității. În mod non-matematic, puteți defini valoarea unei variabile aleatoare ca rezultat al unui eveniment aleatoriu. Deci, de exemplu, dacă variabila ar fi rezultatul aruncării unui zar, ar fi un număr, în timp ce dacă ar fi rezultatul unei aruncări de monede, ar fi un boolean (0 sau 1). Setul acestor rezultate posibile poate fi atât continuu, cât și discret.
Deci putem spune că un proces stocastic este o colecție de variabile aleatoare care stabilesc indici. Acest set reprezintă diferite momente de timp. Această mulțime poate fi de numere reale (proces continuu) sau numere naturale (proces discret).
Citiți: Structuri de date încorporate în Python
Introducere în lanțurile Markov
Lanțurile Markov își iau numele de la Andrey Markov, care a adus în discuție acest concept pentru prima dată în 1906. Lanțurile Markov se referă la procese stocastice care conțin variabile aleatoare, iar acele variabile trec de la o stare la alta conform regulilor și ipotezelor probabilității.
Care sunt acele reguli și presupuneri probabilistice, vă întrebați? Acestea se numesc proprietăți Markov. Află mai multe despre Lanțul Markov în Tutorial Python
Ce este proprietatea Markov?
Există o mulțime de grupuri de procese aleatorii, cum ar fi modelele autoregresive și procesele gaussiene. Proprietatea Markov face studiul acestor procese aleatoare destul de ușor. O proprietate Markov afirmă că nu am obține mai multe informații despre rezultatele viitoare ale unui proces prin creșterea cunoștințelor noastre despre trecutul său dacă îi cunoaștem valoarea la un anumit moment.
O definiție mai elaborată ar fi: proprietatea Markov spune că probabilitatea unui proces stocastic depinde doar de starea curentă și de timpul său și este independentă de celelalte stări pe care le avea înainte. De aceea, este o proprietate fără memorie, deoarece depinde doar de starea prezentă a procesului.
Un lanț Markov omogen în timp discret este un proces Marko care are spațiu și timp discret de stare. Putem spune că un lanț Markov este o serie discretă de stări și posedă proprietatea Markov.
Iată reprezentarea matematică a unui lanț Markov:
X = ( X n ) n N =( X 0 , X 1 , X 2 , …)
Proprietățile lanțurilor Markov
Să aruncăm o privire la caracteristicile fundamentale ale lanțurilor Markov pentru a le înțelege mai bine. Nu vom aprofunda acest subiect, deoarece scopul acestui articol este de a vă familiariza cu conceptul general al lanțurilor Markov.
Reductibilitate
Lanțurile Markov sunt ireductibile. Asta înseamnă că nu au reducbilitate dacă poate ajunge în orice stare din alt stat. Lanțul nu trebuie să ajungă la o stare din alta într-un singur pas de timp; poate face acest lucru în mai mulți pași de timp. Dacă putem reprezenta lanțul cu un grafic, atunci graficul ar fi strâns legat.

Aperiodic
Să presupunem că perioada unui stat este k. Dacă k = 1, atunci această stare este aperiodică atunci când orice fel de revenire la starea sa necesită un multiplu de k pași de timp. Când toate stările unui lanț Markov sunt aperiodice, atunci putem spune că lanțul Markov este aperiodic.
State tranzitorii și recurente
Când părăsiți o stare și există probabilitatea să nu vă puteți întoarce la ea, spunem că starea este tranzitorie. Pe de altă parte, dacă ne putem întoarce la o stare cu probabilitatea 1, după ce am părăsit-o, putem spune că proprietatea este recurentă.
Există două tipuri de stări recurente pe care le putem avea. Prima este starea recurentă pozitivă care are un timp de revenire așteptat finit, iar a doua este starea recurentă nulă care are un timp de revenire așteptat infinit. Timpul de revenire așteptat se referă la timpul mediu de recurență când părăsim statul.
Aplicații ale lanțurilor Markov
Lanțurile Markov își găsesc aplicații în multe domenii. Iată aplicațiile lor proeminente:
- Algoritmul PageRank de la Google tratează web-ul ca pe un model Markov. Se poate spune că toate paginile web sunt stări, iar legăturile dintre ele sunt tranziții care posedă probabilități specifice. Cu alte cuvinte, putem spune că, indiferent de ce căutați pe Google, există o probabilitate limitată ca dvs. să ajungeți pe o anumită pagină web.
- Dacă utilizați Gmail, trebuie să fi observat funcția lor de completare automată. Această funcție vă prezice automat propozițiile pentru a vă ajuta să scrieți rapid e-mailuri. Lanțurile Markov ajută considerabil în acest sector, deoarece pot oferi predicții de acest fel în mod eficient.
- Ai auzit de Reddit? Este o platformă importantă de social media care este plină de subreddite (un nume pentru comunitățile în Reddit) cu anumite subiecte. Reddit folosește lanțuri și modele Markov pentru a simula subreddit-urile pentru o mai bună înțelegere a acestora.
Aflați mai multe: Evoluția modelării limbajului în viața modernă
Gânduri finale
Se pare că am ajuns la sfârșitul introducerii noastre despre lanțurile Markov. Sperăm că ați găsit acest articol util. Dacă aveți întrebări sau întrebări, nu ezitați să ni le împărtășiți prin comentarii. Ne-am bucura sa primim vesti de la tine.
Dacă doriți să aflați mai multe despre acest subiect, ar trebui să mergeți la secțiunea noastră de cursuri. Veți găsi acolo o mulțime de resurse valoroase.
Dacă sunteți curios să aflați despre știința datelor, consultați Diploma PG în știința datelor de la IIIT-B și upGrad, care este creată pentru profesioniști care lucrează și oferă peste 10 studii de caz și proiecte, ateliere practice practice, mentorat cu experți din industrie, 1- on-1 cu mentori din industrie, peste 400 de ore de învățare și asistență profesională cu firme de top.
Există vreo aplicație în viața reală a lanțurilor Markov?
Unul dintre cele mai esențiale teste pentru tratarea procedurilor de proces separate este lanțul Markov. În finanțe și economie, lanțurile Markov sunt folosite pentru a reprezenta o varietate de evenimente, cum ar fi prăbușirile pieței și valorile activelor. Lanțurile Markov sunt aplicate într-o gamă largă de domenii academice, inclusiv biologie, economie și chiar scenarii din lumea reală. Parcările au un număr stabilit de locuri disponibile, dar câte sunt disponibile la un moment dat pot fi caracterizate folosind un model Markov bazat pe o combinație de numeroși factori sau variabile. Lanțurile Markov sunt frecvent utilizate pentru a crea texte false, articole lungi și discursuri.
Ce înseamnă termenul de echilibru în raport cu Lanțurile Markov?
Distribuția πT se spune că este o distribuție de echilibru Dacă πT P = πT. Echilibrul se referă la o situație în care distribuția lui Xt nu se schimbă pe măsură ce progresăm prin lanțul Markov. De fapt, caracteristica distinctivă a unui lanț Markov este că potențialele stări viitoare sunt fixe, indiferent de modul în care procesul a ajuns la starea actuală. Cu alte cuvinte, probabilitatea de a trece la orice condiție dată este complet determinată de starea prezentă și de timpul care a trecut.
Lanțurile Markov sunt timp omogene?
Dacă probabilitatea de tranziție între două valori date de stare la oricare două momente se bazează doar pe diferența dintre acești timpi, procesul este omogen în timp. Există condiții pentru ca un lanț Markov să fie omogen sau neomogen. Se spune că probabilitățile de tranziție ale unui lanț Markov sunt omogene dacă și numai dacă sunt independente de timp. Proprietatea Markov este reținută în lanțuri Markov neomogene (nhmc), deși probabilitățile de tranziție pot varia în timp. Această secțiune stabilește criteriile care garantează prezența unei limite de variație în astfel de lanțuri, cu scopul de a le aplica la recoacere simulată.