Was ist ein Bayes'sches neuronales Netz? Hintergrund, Grundidee & Funktion
Veröffentlicht: 2020-12-23Inhaltsverzeichnis
Einführung
Dieser Artikel befasst sich mit dem grundlegenden Konzept Bayesianischer Neuronaler Netze. Dieses spezielle Konzept der Bayes'schen neuronalen Netze kommt zum Tragen, wenn unsichtbare Daten in das neuronale Netz eingespeist werden, was zu Unsicherheit führt.
Das Maß dieser Unsicherheit in der Vorhersage, die den neuronalen Netzwerkarchitekturen fehlt, ist das, was Bayesian Neural Nets erklärt. Es bekämpft Overfitting, hilft aber auch bei den zusätzlichen Funktionen wie der Schätzung der Unsicherheit und der Wahrscheinlichkeitsverteilung. Das Konzept der neuronalen Netze wurde ebenfalls erklärt.
Lesen Sie: Arten von überwachtem Lernen
Hintergrund des Bayesschen neuronalen Netzwerks
Im Vergleich zu einem der leistungsstärksten künstlichen Intelligenzsysteme der letzten zehn Jahre haben alle diese Maschinen eines gemeinsam: Sie verfügen über eine ausgeklügelte Technik namens Deep Learning.
Wenn man das Konzept des Deep Learning aufschneidet, kann man beobachten, dass es sich um einen Namen handelt, der einen relativ neuen Ansatz für künstliche Intelligenz ermöglichte, die sogenannten neuronalen Netze, die seit etwa 70 Jahren uneinheitlich im Trend liegen. Als Beispiel wird beobachtet, dass das Konzept der neuronalen Netze vage auf dem menschlichen Gehirn basiert, das aus Millionen von Verarbeitungsknoten besteht, die wie verflochtene Drähte zu einem dichten Netz verbunden sind.
Die Bayes'schen neuronalen Netze befassen sich daher bequem mit dem Problem der Unsicherheiten in den so zugeführten Trainingsdaten.

Grundidee des bayesschen neuronalen Netzes
Neuronale Netze, besser bekannt als Neural Nets, sind eine effektive Methode des maschinellen Lernens, bei der der Computer lernt, analysiert und die Aufgaben durch Analysieren der Trainingsbeispiele ausführt. Die verwendeten Beispiele werden vorab meist von Hand beschriftet. Nehmen wir zum Beispiel ein Objekterkennungssystem.
Die Informationen bezüglich beschrifteter Bilder von Automobilen, Autos, Häusern oder jeglichen Objekten werden gegeben oder zugeführt. Es formuliert dann eine logische Schlussfolgerung in dem visuellen Muster, das als Daten eingefügt wird, die konsistent mit anderen spezifischen Etiketten korrelieren sollen.
Die Architekten, die mit neuronalen Netzen arbeiten, waren siegreich beim Aufschlüsseln und Lernen von sehr komplizierten Eingabe- und Ausgabezuordnungen aus den Daten. Nichtsdestotrotz reicht ein grundlegendes Wissen über dasselbe Input- und Output-Mapping-System in der Regel in den meisten Situationen nicht aus, insbesondere wenn die Integration der Überzeugung eines bestimmten Modells erforderlich ist oder wenn die Daten begrenzt sind.
Die Bayesschen neuronalen Netze sind jene Kriterien oder Parameter, die unter den meisten Umständen als Verteilung ausgedrückt werden und normalerweise durch das Konzept der Bayesschen Inferenz im Vergleich zu einem deterministischen Wert gelernt werden. Sie haben eine innere Fähigkeit, die komplexe, nichtlineare Funktion aus den Daten zu verdauen und dann die Unsicherheiten auszudrücken – beides gleichzeitig. Es hat sie daher auch zu einer höheren Rolle bei dem Streben nach der Gewinnung und dem Aufbau einer zuverlässigeren und kompetenteren KI geführt.
Muss gelesen werden: Typen von Regressionsmodellen beim maschinellen Lernen
Was sind bayessche neuronale Netze?
Daher bezieht sich Bayesian Neural Network auf die Erweiterung des Standardnetzwerks bezüglich der vorherigen Inferenz. Bayes'sche neuronale Netze erweisen sich in bestimmten Umgebungen als äußerst effektiv, wenn die Unsicherheit hoch und absolut ist. Diese Umstände sind nämlich das Entscheidungsfindungssystem oder bei einer relativ niedrigeren Datenmenge oder jede Art von modellbasiertem Lernen.
Die Deep Neural Networks (DNN) neigen dazu, eine logische Schlussfolgerung mit den gegebenen Daten zu formulieren, ohne vorher Erfahrung mit dem Datensatz zu haben. Infolgedessen funktionieren sie außergewöhnlich gut mit Daten, die von Natur aus nichtlinear sind, und erfordern daher eine große Datenmenge für den alleinigen Trainingszweck. Durch das Hochladen von mehr Informationen entsteht das Problem der Überanpassung von Oberflächen.
Das Dilemma, das sich in der gegenwärtigen Situation ergibt, besteht darin, dass die neuronalen Netze, wie bereits erwähnt, mit den Daten, die nur zu Trainingszwecken eingespeist werden, außergewöhnlich gut funktionieren, aber tendenziell zu einer Minderleistung führen, wenn neue und fremde Daten in das System eingespeist werden. Dies führt dazu, dass die Netze gegenüber bestimmten Unsicherheiten in den Trainingsdaten selbst blind sind, was dazu führt, dass sie in ihren Vorhersagen zu zuversichtlich sind, was irreführend sein kann. Um solche Fehler zu beseitigen, werden daher die Bayesian Neural Networks eingesetzt.

Wie funktionieren Bayes'sche neuronale Netze (BNN)?
Das Hauptziel und die Idee hinter den Bayes'schen neuronalen Netzwerken ist, dass jede Einheit mit der Wahrscheinlichkeitsverteilung in Verbindung steht, die die Gewichtungen und die Verzerrungen enthält.
Sie sind als Zufallsvariablen bekannt, die bei jedem Zugriff einen völlig anderen Wert liefern.
Wenn beispielsweise X eine Variable ist und eine vollständig zufällige Variable ist, stellt dies die Normalverteilung dar. Jedes Mal, wenn auf X zugegriffen wird, wird ein abweichender Wert von X angegeben. Der Prozess zum Erhalten eines divergierenden Werts jedes Mal, wenn der Wert von X abgerufen wird, wird Sampling genannt. Der Wert, der aus jeder Stichprobe abgeleitet wird, ist abhängig von der Wahrscheinlichkeitsverteilung.

Mit zunehmendem Umfang der Wahrscheinlichkeitsverteilung ist die Unsicherheit direkt proportional; infolgedessen steigt es auch. Typischerweise hat in einem neuronalen Netzwerk jede Schicht feste Gewichte mit den Vorspannungen, die normalerweise eine Erklärung für die Ausgabe geben. Ein Bayes'sches Netzwerk hingegen hat die Wahrscheinlichkeitsverteilung, die an die Schicht selbst angehängt wird.
Jedes Mal wird ein mehrfacher Vorwärtsdurchlauf durchgeführt, mit einem neuen Satz von Gewichten sowie Vorspannungen. Es wird daher verwendet, um sich mit der Frage der Klassifizierung zu befassen. Die Ausgabe wird für jeden Vorwärtsdurchgang bereitgestellt. Die als Eingabebild hochgeladenen Daten führen zu erhöhter Unsicherheit. In einem solchen Fall handelt es sich um ein Bild, das das Netz zuvor noch nicht für die Ausgabeklassen angetroffen hat.
Fazit
Man kann mit Sicherheit sagen, dass Bayes'sche neuronale Netze ein Segen sind, wenn es um die Integration und den Umgang mit Unsicherheiten geht. Sie haben sich auch manifestiert, um die Vorhersageleistungen zu verbessern.
Die primären grundlegenden Probleme, die bei der Entwicklung des Bayes'schen neuronalen Netzwerks oder eines beliebigen auf Wahrscheinlichkeit basierenden Modells auftreten, sind die hartnäckigen Berechnungen der vorherigen Verteilung und ihrer jeweiligen Erwartungen. Darüber hinaus ist es außergewöhnlich klar, dass das Problem der Überanpassung von den Bayes'schen Netzwerken sehr robust behandelt wird.
Wenn Sie mehr über maschinelles Lernen erfahren möchten, sehen Sie sich das PG-Diplom in maschinellem Lernen und KI von IIIT-B & upGrad an, das für Berufstätige konzipiert ist und mehr als 450 Stunden strenge Schulungen, mehr als 30 Fallstudien und Aufgaben bietet, IIIT- B-Alumni-Status, mehr als 5 praktische, praktische Abschlussprojekte und Jobunterstützung bei Top-Unternehmen.
Wie macht man aus einem Bayes'schen Netz ein grafisches Modell?
Durch Verknüpfen aller Knoten, die an jeder Komponente beteiligt sind, kann ein Bayes'sches Netzwerk in ein ungerichtetes grafisches Modell umgewandelt werden. Dies erfordert das Verbinden der Eltern jedes Knotens. Ein moralischer Graph ist ein ungerichteter Graph, der einem bestimmten Bayes'schen Netzwerk entspricht. Das Berechnen des moralischen Graphen ist die erste Stufe in vielen Berechnungstechniken für Bayes'sche Netzwerke.
Welche Beziehung besteht zwischen einem Bayes'schen Netzwerk und Wahrscheinlichkeit?
Ein Bayes'sches Netzwerk wird unter Verwendung eines azyklischen gerichteten Graphen erstellt. Ein Bayes'sches neuronales Netzwerk ist ein Wahrscheinlichkeitsmodell, das durch Anwenden einer einzigen bedingten Wahrscheinlichkeitsverteilung für jede Variable für das gegebene Modell faktorisiert wird. Die Verteilung basiert auf den Eltern in der Grafik. Die getrennten Variablen im Diagramm sind immer noch unabhängig, aber die grundlegende Diagrammtrennung des ungerichteten Diagramms wird durch die schwierigere d-Trennung ersetzt, die den Einfluss konkurrierender Erklärungen für beobachtete Werte berücksichtigt.
Erwähnen Sie eine Annahme, die Bayes'sche Netzwerke machen?
Wenn uns die Zielklassifikation zur Verfügung gestellt wird, ist eine kritische Annahme für naive Bayes'sche Klassifikatoren, dass alle Variablenwerte bedingt unabhängig sind. Diese Annahme hilft stark bei der Vereinfachung der Zielfunktionsberechnungen hinsichtlich der A-posteriori-Wahrscheinlichkeit. Für einige Anwendungen, wie beispielsweise Textdokumente und Sprachsignale, ist diese Annahme jedoch möglicherweise nicht korrekt. Bayesian Belief Networks können in diesem Szenario eine nützliche Wahl sein. Sie verwenden einen Satz bedingt unabhängiger Wahrscheinlichkeiten, anstatt allen Variablen alle möglichen Werte aufzuerlegen.