Einführung in Markov-Ketten: Voraussetzungen, Eigenschaften und Anwendungen

Veröffentlicht: 2020-04-14

Ist Ihnen schon einmal in den Sinn gekommen, wie erfahrene Meteorologen das Wetter genau vorhersagen oder wie Google verschiedene Webseiten bewertet? Wie sie die faszinierenden Python-Anwendungen in der realen Welt machen. Diese Berechnungen sind komplex und umfassen mehrere dynamische Variablen, die mithilfe von Wahrscheinlichkeitsschätzungen gelöst werden können.

Als Google seinen PageRank-Algorithmus einführte, revolutionierte er die Webindustrie. Und wenn Sie mit diesem Algorithmus vertraut sind, müssen Sie auch wissen, dass er Markov-Ketten verwendet. In unserer Einführung in Markov-Ketten werfen wir einen kurzen Blick auf sie und verstehen, was sie sind. Also lasst uns anfangen.

Inhaltsverzeichnis

Voraussetzungen

Es ist wichtig, einige Konzepte zu kennen, bevor wir mit der Diskussion von Markov-Ketten beginnen. Und die meisten von ihnen stammen aus der Wahrscheinlichkeitstheorie. Nicht mathematisch können Sie den Wert einer Zufallsvariablen als Ergebnis eines zufälligen Ereignisses definieren. Wenn die Variable beispielsweise das Ergebnis eines Würfelwurfs wäre, wäre sie eine Zahl, während sie ein boolescher Wert (0 oder 1) wäre, wenn sie das Ergebnis eines Münzwurfs wäre. Die Menge dieser möglichen Ergebnisse könnte sowohl kontinuierlich als auch diskret sein.

Wir können also sagen, dass ein stochastischer Prozess eine Sammlung von Zufallsvariablen ist, die Indizes setzen. Dieser Satz repräsentiert verschiedene Zeitinstanzen. Diese Menge könnte aus reellen Zahlen (kontinuierlicher Prozess) oder natürlichen Zahlen (diskreter Prozess) bestehen.

Lesen Sie: Eingebaute Datenstrukturen in Python

Einführung in Markov-Ketten

Markov-Ketten haben ihren Namen von Andrey Markov, der dieses Konzept 1906 zum ersten Mal aufbrachte. Markov-Ketten beziehen sich auf stochastische Prozesse, die Zufallsvariablen enthalten, und diese Variablen gehen gemäß Wahrscheinlichkeitsregeln und Annahmen von einem Zustand in einen anderen über.

Was sind diese probabilistischen Regeln und Annahmen, fragen Sie? Diese werden als Markov-Eigenschaften bezeichnet. Lerne mehr über Markov-Kette im Python-Tutorial

Was ist die Markov-Eigenschaft?

Es gibt viele Gruppen von Zufallsprozessen, wie z. B. autoregressive Modelle und Gaußsche Prozesse. Die Markov-Eigenschaft macht das Studium dieser zufälligen Prozesse ziemlich einfacher. Eine Markov-Eigenschaft besagt, dass wir nicht mehr Informationen über die zukünftigen Ergebnisse eines Prozesses erhalten würden, indem wir unser Wissen über seine Vergangenheit erweitern, wenn wir seinen Wert zu einem bestimmten Zeitpunkt kennen.

Eine ausführlichere Definition wäre: Die Markov-Eigenschaft besagt, dass die Wahrscheinlichkeit eines stochastischen Prozesses nur von seinem aktuellen Zustand und seiner Zeit abhängt und unabhängig von den anderen Zuständen ist, die er zuvor hatte. Aus diesem Grund handelt es sich um eine gedächtnislose Eigenschaft, da sie nur vom aktuellen Status des Prozesses abhängt.

Eine homogene zeitdiskrete Markov-Kette ist ein Marko-Prozess, der einen diskreten Zustandsraum und eine diskrete Zeit hat. Wir können sagen, dass eine Markov-Kette eine diskrete Reihe von Zuständen ist und die Markov-Eigenschaft besitzt.

Hier ist die mathematische Darstellung einer Markov-Kette:

X = ( X n ) n N = ( X 0 , X 1 , X 2 , …)

Eigenschaften von Markov-Ketten

Werfen wir einen Blick auf die grundlegenden Merkmale von Markov-Ketten, um sie besser zu verstehen. Wir werden dieses Thema nicht zu tief vertiefen, da der Zweck dieses Artikels darin besteht, Sie mit dem allgemeinen Konzept von Markov-Ketten vertraut zu machen.

Reduzierbarkeit

Markov-Ketten sind irreduzibel. Das heißt, sie haben keine Reduzierbarkeit, wenn sie von einem anderen Zustand zu einem beliebigen Zustand gelangen können. Die Kette muss nicht in nur einem einzigen Zeitschritt von einem Zustand zum anderen gelangen; es kann dies in mehreren Zeitschritten tun. Wenn wir die Kette mit einem Graphen darstellen können, dann wäre der Graph fest verbunden.

Aperiodisch

Nehmen wir an, die Periode eines Zustands ist k. Wenn k = 1, dann ist dieser Zustand aperiodisch, wenn jede Art von Rückkehr in seinen Zustand ein Vielfaches von k Zeitschritten erfordert. Wenn alle Zustände einer Markov-Kette aperiodisch sind, dann können wir sagen, dass die Markov-Kette aperiodisch ist.

Vorübergehende und wiederkehrende Zustände

Wenn Sie einen Zustand verlassen und es wahrscheinlich ist, dass Sie nicht mehr dorthin zurückkehren können, sagen wir, dass der Zustand vorübergehend ist. Wenn wir dagegen mit Wahrscheinlichkeit 1 in einen Zustand zurückkehren können, nachdem wir ihn verlassen haben, können wir sagen, dass die Eigenschaft wiederkehrend ist.

Es gibt zwei Arten von wiederkehrenden Zuständen, die wir haben können. Der erste ist der positive rekurrente Zustand, der eine endliche erwartete Rückkehrzeit hat, und der zweite ist der null rekurrente Zustand, der eine unendliche erwartete Rückkehrzeit hat. Die erwartete Rückkehrzeit bezieht sich auf die mittlere Wiederkehrzeit, wenn wir den Staat verlassen.

Anwendungen von Markov-Ketten

Markov-Ketten finden in vielen Bereichen Anwendung. Hier sind ihre prominenten Anwendungen:

  • Der PageRank-Algorithmus von Google behandelt das Web wie ein Markov-Modell. Man kann sagen, dass alle Webseiten Zustände sind und die Verbindungen zwischen ihnen Übergänge mit bestimmten Wahrscheinlichkeiten. Mit anderen Worten, wir können sagen, dass egal, wonach Sie bei Google suchen, es eine endliche Wahrscheinlichkeit gibt, dass Sie auf einer bestimmten Webseite landen.
  • Wenn Sie Google Mail verwenden, müssen Sie die Funktion zum automatischen Ausfüllen bemerkt haben. Diese Funktion sagt Ihre Sätze automatisch voraus, damit Sie schnell E-Mails schreiben können. Markov-Ketten helfen in diesem Bereich erheblich, da sie Vorhersagen dieser Art effektiv liefern können.
  • Hast du schon von Reddit gehört? Es ist eine bedeutende Social-Media-Plattform, die mit Subreddits (ein Name für Communities in Reddit) zu bestimmten Themen gefüllt ist. Reddit verwendet Markov-Ketten und -Modelle, um Subreddits für ein besseres Verständnis derselben zu simulieren.

Mehr wissen: Evolution der Sprachmodellierung im modernen Leben

Abschließende Gedanken

Es scheint, dass wir das Ende unserer Einführung in Markov-Ketten erreicht haben. Wir hoffen, Sie fanden diesen Artikel hilfreich. Wenn Sie Fragen oder Anregungen haben, können Sie diese gerne über die Kommentare mit uns teilen. Wir würden uns freuen, von Ihnen zu hören.

Wenn Sie mehr zu diesem Thema erfahren möchten, sollten Sie sich in unseren Kursbereich begeben. Dort finden Sie viele wertvolle Ressourcen.

Wenn Sie neugierig sind, mehr über Data Science zu erfahren, schauen Sie sich das PG Diploma in Data Science von IIIT-B & upGrad an, das für Berufstätige entwickelt wurde und mehr als 10 Fallstudien und Projekte, praktische Workshops, Mentoring mit Branchenexperten, 1- on-1 mit Mentoren aus der Branche, mehr als 400 Stunden Lern- und Jobunterstützung bei Top-Unternehmen.

Gibt es eine reale Anwendung von Markov-Ketten?

Einer der wichtigsten Tests für den Umgang mit separaten Versuchsverfahren ist die Markov-Kette. In der Finanz- und Wirtschaftswissenschaft werden Markov-Ketten verwendet, um eine Vielzahl von Ereignissen darzustellen, wie z. B. Marktcrashs und Vermögenswerte. Markov-Ketten werden in einer Vielzahl von akademischen Bereichen angewendet, darunter Biologie, Wirtschaftswissenschaften und sogar reale Szenarien. Auf Parkplätzen steht eine festgelegte Anzahl von Plätzen zur Verfügung, aber wie viele zu einem beliebigen Zeitpunkt verfügbar sind, kann unter Verwendung eines Markov-Modells basierend auf einer Kombination zahlreicher Faktoren oder Variablen charakterisiert werden. Markov-Ketten werden häufig verwendet, um Dummy-Texte, lange Artikel und Reden zu erstellen.

Was bedeutet der Begriff Gleichgewicht in Bezug auf Markov-Ketten?

Die Verteilung πT wird als Gleichgewichtsverteilung bezeichnet, wenn πT P = πT. Gleichgewicht bezieht sich auf eine Situation, in der sich die Verteilung von Xt nicht ändert, während wir durch die Markov-Kette fortschreiten. Tatsächlich besteht das Unterscheidungsmerkmal einer Markov-Kette darin, dass die potenziellen zukünftigen Zustände festgelegt sind, unabhängig davon, wie der Prozess zu seinem aktuellen Zustand gelangt ist. Mit anderen Worten, die Wahrscheinlichkeit des Übergangs in einen bestimmten Zustand wird vollständig durch den gegenwärtigen Zustand und die vergangene Zeit bestimmt.

Sind Markov-Ketten zeithomogen?

Wenn die Übergangswahrscheinlichkeit zwischen zwei gegebenen Zustandswerten zu zwei beliebigen Zeitpunkten nur auf der Differenz zwischen diesen Zeitpunkten beruht, ist der Prozess zeithomogen. Es gibt Bedingungen, unter denen eine Markov-Kette homogen oder nicht homogen sein kann. Die Übergangswahrscheinlichkeiten einer Markov-Kette heißen genau dann homogen, wenn sie zeitunabhängig sind. Die Markov-Eigenschaft bleibt in inhomogenen Markov-Ketten (nhmc) erhalten, obwohl die Übergangswahrscheinlichkeiten mit der Zeit variieren können. Dieser Abschnitt legt die Kriterien dar, die das Vorhandensein einer Variationsgrenze in solchen Ketten garantieren, mit dem Ziel, sie auf das simulierte Glühen anzuwenden.