Die 7 Arten von künstlichen neuronalen Netzen, die ML-Ingenieure kennen müssen
Veröffentlicht: 2019-12-17Neuronale Netze sind beim maschinellen Lernen verwendete Netze, die ähnlich wie das menschliche Nervensystem funktionieren. Es ist so konzipiert, dass es wie das menschliche Gehirn funktioniert, in dem viele Dinge auf verschiedene Weise miteinander verbunden sind. Künstliche neuronale Netze finden umfangreiche Anwendungen in Bereichen, in denen traditionelle Computer nicht allzu gut abschneiden. Es gibt viele Arten von künstlichen neuronalen Netzen, die für das Rechenmodell verwendet werden.
Der Satz von Parametern und Operationen der Mathematik bestimmt die Art der neuronalen Netze, die verwendet werden, um das Ergebnis zu erhalten. Hier werden wir einige der kritischen Typen neuronaler Netze beim maschinellen Lernen diskutieren:
Inhaltsverzeichnis
Top 7 der künstlichen neuronalen Netze im maschinellen Lernen
1. Modulare neuronale Netze
Bei dieser Art von neuronalem Netzwerk tragen viele unabhängige Netzwerke gemeinsam zu den Ergebnissen bei. Es gibt viele Unteraufgaben, die von jedem dieser neuronalen Netze ausgeführt und konstruiert werden. Dies stellt eine Reihe von Eingaben bereit, die im Vergleich zu anderen neuronalen Netzen einzigartig sind. Es gibt keinen Signalaustausch oder keine Interaktion zwischen diesen neuronalen Netzwerken, um irgendeine Aufgabe zu erfüllen.
Die Komplexität eines Problems wird beim Lösen von Problemen durch diese modularen Netzwerke leicht reduziert, da sie den umfangreichen Rechenprozess vollständig in kleine Komponenten zerlegen. Die Rechengeschwindigkeit wird auch verbessert, wenn die Anzahl der Verbindungen heruntergebrochen wird, und die Notwendigkeit einer Interaktion der neuronalen Netze untereinander verringert.
Die Gesamtverarbeitungszeit hängt auch von der Beteiligung von Neuronen an der Berechnung von Ergebnissen und davon ab, wie viele Neuronen an dem Prozess beteiligt sind. Modulare neuronale Netze (MNNs) sind einer der am schnellsten wachsenden Bereiche der künstlichen Intelligenz.
2. Neuronales Feedforward-Netzwerk – Künstliches Neuron
Die Informationen im neuronalen Netzwerk reisen in eine Richtung und sind die reinste Form eines künstlichen neuronalen Netzwerks. Diese Art von neuronalem Netzwerk kann verborgene Schichten haben und Daten werden durch Eingabeknoten eingegeben und durch Ausgabeknoten ausgegeben. In diesem neuronalen Netzwerk wird eine klassifizierende Aktivierungsfunktion verwendet. Es gibt keine Rückwärtsausbreitung, und nur die von vorne ausgebreitete Welle ist erlaubt.

Es gibt viele Anwendungen von neuronalen Feedforward-Netzen, wie z. B. Spracherkennung und Computer Vision. Es ist einfacher, diese Art von neuronalen Netzwerken zu warten und hat auch eine hervorragende Reaktionsfähigkeit auf verrauschte Daten.
Holen Sie sich Online-Kurse zu künstlicher Intelligenz von den besten Universitäten der Welt. Erwerben Sie Master-, Executive PGP- oder Advanced Certificate-Programme, um Ihre Karriere zu beschleunigen.
3. Radiale Basisfunktion Neuronales Netzwerk
Es gibt zwei Ebenen in den Funktionen von RBF. Diese werden verwendet, um den Abstand eines Zentrums in Bezug auf den Punkt zu berücksichtigen. In der ersten Schicht werden Features in der inneren Schicht mit der radialen Basisfunktion vereint. Im nächsten Schritt wird die Ausgabe dieser Schicht berücksichtigt, um dieselbe Ausgabe in der nächsten Iteration zu berechnen. Eine der Anwendungen der radialen Basisfunktion ist in Power Restoration Systems zu sehen. Nach einem Stromausfall muss die Stromversorgung möglichst zuverlässig und schnell wiederhergestellt werden.
4. Selbstorganisierendes neuronales Kohonen-Netzwerk
In diesem neuronalen Netzwerk werden Vektoren aus einer beliebigen Dimension in eine diskrete Karte eingegeben. Trainingsdaten einer Organisation werden durch Training der Karte erstellt. Es kann eine oder zwei Dimensionen auf der Karte geben. Das Gewicht der Neuronen kann sich je nach Wert ändern.
Die Position des Neurons ändert sich während des Trainings der Karte nicht und bleibt konstant. In der ersten Phase des Selbstorganisationsprozesses wird jedem Neuronenwert ein Eingabevektor und ein kleines Gewicht gegeben. Ein gewinnendes Neuron ist ein Neuron, das dem Punkt am nächsten ist. Andere Neuronen werden sich zusammen mit dem gewinnenden Neuron in der zweiten Phase ebenfalls auf den Punkt zubewegen.
Das gewinnende Neuron hat die geringste Distanz, und die euklidische Distanz wird verwendet, um die Distanz zwischen Neuronen und dem Punkt zu berechnen. Jedes Neuron repräsentiert jede Art von Cluster, und die Clusterbildung aller Punkte erfolgt durch die Iterationen.
Eine der Hauptanwendungen des Kohonen Neural Network ist die Erkennung von Datenmustern. Es wird auch in der medizinischen Analyse verwendet, um Krankheiten mit höherer Genauigkeit zu klassifizieren. Die Daten werden nach der Analyse der Trends in den Daten in verschiedene Kategorien gruppiert.

5. Wiederkehrendes neuronales Netzwerk (RNN)
Das Prinzip von Recurrent Neural Network besteht darin, die Ausgabe einer Schicht wieder an die Eingabe zurückzukoppeln. Dieses Prinzip hilft, das Ergebnis der Schicht vorherzusagen. Im Berechnungsprozess fungiert jedes Neuron als Speicherzelle. Das Neuron behält einige Informationen, wenn es zum nächsten Zeitschritt übergeht.
Dies wird als rekurrenter neuronaler Netzwerkprozess bezeichnet. Die später zu verwendenden Daten werden gespeichert und die Arbeit für den nächsten Schritt wird im Prozess fortgesetzt. Die Vorhersage wird durch Fehlerkorrektur verbessert. Bei der Fehlerkorrektur werden einige Änderungen vorgenommen, um die richtige Vorhersageausgabe zu erstellen. Die Lernrate ist die Rate, mit der das Netzwerk aus der falschen Vorhersage die richtige Vorhersage machen kann.
Es gibt viele Anwendungen für wiederkehrende neuronale Netze, und eines davon ist das Modell der Umwandlung von Text in Sprache. Das rekurrente neuronale Netzwerk wurde für überwachtes Lernen ohne die Notwendigkeit eines Lehrsignals entwickelt.
6. Faltungsneuronales Netzwerk
Bei dieser Art von neuronalem Netzwerk werden den Neuronen zunächst lernfähige Vorspannungen und Gewichtungen gegeben. Bildverarbeitung und Signalverarbeitung sind einige seiner Anwendungen im Bereich Computer Vision. Es hat OpenCV übernommen.
Die Bilder werden in Teilen gespeichert, um das Netzwerk bei Rechenoperationen zu unterstützen. Die Fotos werden erkannt, indem die Eingabemerkmale stapelweise erfasst werden. Im Berechnungsprozess wird das Bild von der HSI- oder RGB-Skala in Graustufen konvertiert. Die Klassifizierung von Bildern erfolgt in verschiedene Kategorien, nachdem das Bild transformiert wurde. Kanten werden erkannt, indem die Pixelwertänderung ermittelt wird.

Die Technik der Bildklassifizierung und Signalverarbeitung wird in ConvNet verwendet. Bei der Bildklassifizierung haben Convolutional Neural Networks eine sehr hohe Genauigkeit. Das ist auch der Grund, warum Convolutional Neural Networks die Computer-Vision-Techniken dominieren. Die Vorhersage des zukünftigen Ertrags und Wachstums einer Landfläche sind weitere Anwendungen von Convolutional Neural Networks in Wetter- und Landwirtschaftsfunktionen.
7. Lang-/Kurzzeitgedächtnis
Schmidhuber und Hochreiter bauten 1997 ein neuronales Netzwerk, das als Long Short Term Memory Networks (LSTMs) bezeichnet wird. Sein Hauptziel ist es, sich Dinge für lange Zeit in einer explizit definierten Speicherzelle zu merken. Frühere Werte werden in der Speicherzelle gespeichert, es sei denn, es wird durch „Forget Gate“ zum Vergessen der Werte aufgefordert.
Neues Material wird durch das „Eingangstor“ zu der Speicherzelle hinzugefügt, und es wird von der Zelle entlang der Vektoren, die durch das „Ausgangstor“ bestimmt werden, zum nächsten verborgenen Zustand geleitet. Die Komposition primitiver Musik, das Schreiben wie Shakespeare oder das Lernen komplexer Sequenzen sind einige der Anwendungen von LSTMs.
Fazit
Dies sind die verschiedenen Arten von neuronalen Netzen, die verwendet werden, um künstliche Intelligenz und maschinelles Lernen zu betreiben. Wir hoffen, dass dieser Artikel etwas Licht in die neuronalen Netze und die für ML verwendeten Typen gebracht hat.
Wenn Sie die Leidenschaft haben und mehr über künstliche Intelligenz erfahren möchten, können Sie das PG-Diplom von IIIT-B & upGrad in Machine Learning und Deep Learning absolvieren, das mehr als 400 Stunden Lernen, praktische Sitzungen, Arbeitsunterstützung und vieles mehr bietet.
Was ist ein neuronales LSTM-Netzwerk?
Sein Hauptzweck besteht darin, Informationen über einen langen Zeitraum in einer ausdrücklich festgelegten Speicherzelle zu halten. Sofern das „Vergessensgatter“ der Speicherzelle nicht mitteilt, die vorherigen Werte zu vergessen, werden die vorherigen Werte in der Speicherzelle aufbewahrt. Das „Eingangstor“ fügt der Speicherzelle neue Informationen hinzu, die dann von der Zelle entlang Vektoren, die durch das „Ausgangstor“ bestimmt werden, zur nächsten verborgenen Einheit übertragen werden. Einige der Anwendungen von LSTMs umfassen rudimentäre Musikkomposition, Shakespeare-Poesie und das Erlernen schwieriger Sequenzen.
Wie funktioniert ein neuronales Netzwerk mit radialer Basisfunktion?
Die RBF-Funktionen sind in zwei Ebenen unterteilt. Diese werden verwendet, um die Entfernung zwischen einem Punkt und seinem Mittelpunkt zu berechnen. Die radiale Basisfunktion wird verwendet, um Features in der inneren Schicht in der ersten Schicht zu verbinden. Die Ausgabe dieser Schicht wird in der nächsten Phase verwendet, um das gleiche Ergebnis in der nächsten Iteration zu berechnen. Power Restoration Systems ist eine der Anwendungen der Radial Basis Function. Nach einem Stromausfall muss die Stromversorgung so zuverlässig und schnell wie möglich wiederhergestellt werden.
Was ist ein selbstorganisierendes neuronales Netzwerk?
In diesem neuronalen Netz werden Vektoren aus beliebigen Dimensionen in eine diskrete Karte eingespeist. Die Karte wird verwendet, um Trainingsdaten für eine Organisation zu erstellen. Die Karte kann ein- oder zweidimensional sein. Je nach Wert kann das Gewicht der Neuronen schwanken. Der Ort des Neurons ändert sich während des Trainings der Karte nicht und bleibt konstant. In der Anfangsphase des Selbstorganisationsprozesses erhält jeder Neuronenwert einen Eingabevektor und ein kleines Gewicht. Das Neuron, das dem Punkt am nächsten ist, gewinnt. In der zweiten Phase werden sich andere Neuronen dem gewinnenden Neuron anschließen, um sich auf das Ziel zuzubewegen.