Top 10 Deep-Learning-Techniken, die Sie kennen sollten

Veröffentlicht: 2020-05-29

Inhaltsverzeichnis

Einführung

Maschinelles Lernen und KI haben die Welt um uns herum in den letzten Jahren mit bahnbrechenden Innovationen verändert. Darüber hinaus sind es die verschiedenen Deep-Learning-Techniken , die das maschinelle Lernen auf eine ganz neue Ebene heben, auf der Maschinen lernen können, Aufgaben zu erkennen, inspiriert vom neuronalen Netzwerk des menschlichen Gehirns. Aus diesem Grund haben wir Sprachsteuerung auf unseren Smartphones und TV-Fernbedienungen.

Es gibt verschiedene Arten von Deep-Learning -Modellen, die sowohl genau sind als auch Probleme effektiv angehen, die für das menschliche Gehirn zu komplex sind. Hier ist wie:

Top 10 Deep-Learning-Techniken

1. Klassische neuronale Netze

Auch als Fully Connected Neural Networks bekannt, wird es oft durch seine mehrschichtigen Perzeptronen identifiziert, bei denen die Neuronen mit der kontinuierlichen Schicht verbunden sind. Es wurde 1958 von Fran Rosenblatt, einem amerikanischen Psychologen, entworfen. Es beinhaltet die Anpassung des Modells an grundlegende binäre Dateneingaben. In diesem Modell sind drei Funktionen enthalten: Sie sind:

  • Lineare Funktion: Zu Recht bezeichnet, stellt sie eine einzelne Linie dar, die ihre Eingaben mit einem konstanten Multiplikator multipliziert.
  • Nichtlineare Funktion: Sie ist weiter in drei Untergruppen unterteilt:
  1. Sigmoidkurve: Es ist eine Funktion, die als S-förmige Kurve mit einem Bereich von 0 bis 1 interpretiert wird.
  2. Der hyperbolische Tangens (tanh) bezieht sich auf die S-förmige Kurve mit einem Bereich von -1 bis 1.
  3. Rektifizierte lineare Einheit (ReLU): Dies ist eine Einzelpunktfunktion, die 0 ergibt, wenn der Eingabewert kleiner als der eingestellte Wert ist, und das lineare Vielfache ergibt, wenn die eingegebene Eingabe höher als der eingestellte Wert ist.

Funktioniert am besten in:

  1. Jedes Tabellen-Dataset, dessen Zeilen und Spalten in CSV formatiert sind
  2. Klassifizierungs- und Regressionsprobleme mit der Eingabe realer Werte
  3. Jedes Modell mit der höchsten Flexibilität, wie das von ANNS

2. Convolutional Neural Networks

CNN ist ein fortschrittlicher und vielversprechender Typ des klassischen künstlichen neuronalen Netzwerkmodells. Es wurde entwickelt, um höhere Komplexität, Vorverarbeitung und Datenkompilierung zu bewältigen. Es bezieht sich auf die Reihenfolge der Anordnung von Neuronen, die im visuellen Kortex eines Tiergehirns vorhanden sind.

Die CNNs können als eines der effizientesten und flexibelsten Modelle zur Spezialisierung auf Bild- und Nichtbilddaten angesehen werden. Diese haben vier verschiedene Organisationen:

  • Es besteht aus einer einzigen Eingabeschicht, bei der es sich im Allgemeinen um eine zweidimensionale Anordnung von Neuronen zur Analyse primärer Bilddaten handelt, die der von Fotopixeln ähnelt.
  • Einige CNNs bestehen auch aus einer eindimensionalen Ausgangsschicht von Neuronen, die Bilder an ihren Eingängen über die verstreuten verbundenen Faltungsschichten verarbeiten.
  • Die CNNs verfügen auch über eine dritte Schicht, die als Abtastschicht bekannt ist, um die Anzahl der an den entsprechenden Netzwerkschichten beteiligten Neuronen zu begrenzen.
  • Insgesamt haben CNNs einzelne oder mehrere verbundene Schichten, die die Abtastung mit Ausgabeschichten verbinden.

Dieses Netzwerkmodell kann dabei helfen, relevante Bilddaten in Form kleinerer Einheiten oder Chunks abzuleiten. Die in den Faltungsschichten vorhandenen Neuronen sind für den Cluster von Neuronen in der vorherigen Schicht verantwortlich.

Sobald die Eingabedaten in das Faltungsmodell importiert wurden, umfasst der Aufbau des CNN vier Phasen:

  • Faltung: Der Prozess leitet Feature-Maps aus Eingabedaten ab, gefolgt von einer Funktion, die auf diese Maps angewendet wird.
  • Max-Pooling: Es hilft CNN, ein Bild basierend auf gegebenen Modifikationen zu erkennen.
  • Flattening: In dieser Phase werden die generierten Daten dann für die Analyse durch ein CNN geglättet.
  • Vollständige Verbindung: Wird oft als verborgene Schicht beschrieben, die die Verlustfunktion für ein Modell zusammenstellt.

Die CNNs sind für Aufgaben geeignet, einschließlich Bilderkennung, Bildanalyse, Bildsegmentierung, Videoanalyse und Verarbeitung natürlicher Sprache. Es kann jedoch andere Szenarien geben, in denen sich CNN-Netzwerke als nützlich erweisen können, wie zum Beispiel:

  • Bilddatensätze mit OCR-Dokumentenanalyse
  • Alle zweidimensionalen Eingabedaten, die zur schnelleren Analyse weiter in eindimensionale transformiert werden können
  • Das Modell muss in seine Architektur einbezogen werden, um eine Ausgabe zu erzielen.

Weiterlesen : Convulational Neural Network

3. Wiederkehrende neuronale Netze (RNNs)

Die RNNs wurden ursprünglich entwickelt, um bei der Vorhersage von Sequenzen zu helfen, beispielsweise ist der Long Short-Term Memory (LSTM) -Algorithmus für seine vielfältigen Funktionalitäten bekannt. Solche Netzwerke arbeiten ausschließlich mit Datensequenzen variabler Eingangslänge.

Das RNN stellt die aus seinem vorherigen Zustand gewonnenen Erkenntnisse als Eingangswert für die aktuelle Vorhersage zur Verfügung. Daher kann es dabei helfen, ein Kurzzeitgedächtnis in einem Netzwerk zu erreichen, was zu einer effektiven Verwaltung von Aktienkursänderungen oder anderen zeitbasierten Datensystemen führt.

Wie bereits erwähnt, gibt es insgesamt zwei Arten von RNN-Designs, die bei der Analyse von Problemen helfen. Sie sind:

  • LSTMs: Nützlich bei der Vorhersage von Daten in Zeitsequenzen unter Verwendung von Speicher. Es hat drei Gates: Input, Output und Forget.
  • Gated RNNs: Auch nützlich bei der Datenvorhersage von Zeitsequenzen über Speicher. Es hat zwei Gates – Update und Reset.

Funktioniert am besten in:

  • Eins zu Eins: Ein einzelner Eingang, der mit einem einzelnen Ausgang verbunden ist, wie z. B. Bildklassifizierung.
  • Eins zu vielen: Eine einzelne Eingabe, die mit Ausgabesequenzen verknüpft ist, wie z. B. eine Bildunterschrift, die mehrere Wörter aus einem einzelnen Bild enthält.
  • Viele zu Eins: Eine Reihe von Eingaben, die eine einzelne Ausgabe erzeugen, wie z. B. die Stimmungsanalyse.
  • Viele zu viele: Eine Reihe von Eingaben führt zu einer Reihe von Ausgaben, wie z. B. Videoklassifizierung.

Es wird auch häufig in der Sprachübersetzung, Konversationsmodellierung und mehr verwendet.

Holen Sie sich online den besten Kurs für maschinelles Lernen von den besten Universitäten der Welt. Erwerben Sie Master-, Executive PGP- oder Advanced Certificate-Programme, um Ihre Karriere zu beschleunigen.

4. Generative gegnerische Netzwerke

Es ist eine Kombination aus zwei Deep-Learning-Techniken neuronaler Netze – einem Generator und einem Diskriminator. Während das Generatornetzwerk künstliche Daten liefert, hilft der Diskriminator bei der Unterscheidung zwischen echten und falschen Daten.

Beide Netzwerke sind wettbewerbsfähig, da der Generator weiterhin künstliche Daten erzeugt, die mit echten Daten identisch sind – und der Diskriminator kontinuierlich echte und unechte Daten erkennt. In einem Szenario, in dem eine Bildbibliothek erstellt werden muss, würde das Generator-Netzwerk simulierte Daten für die authentischen Bilder erzeugen. Es würde dann ein neuronales Dekonvolutionsnetzwerk erzeugen.

Es würde dann von einem Bilderkennungsnetzwerk gefolgt, um zwischen echten und gefälschten Bildern zu unterscheiden. Ab einer Genauigkeitschance von 50% muss der Detektor seine Klassifizierungsqualität entwickeln, da der Generator in seiner künstlichen Bilderzeugung besser wachsen würde. Ein solcher Wettbewerb würde insgesamt zu Effektivität und Geschwindigkeit des Netzwerks beitragen.

Funktioniert am besten in:

  • Bild- und Textgenerierung
  • Bildverbesserung
  • Prozesse zur Entdeckung neuer Arzneimittel

5. Selbstorganisierende Karten

Die SOMs oder Self-Organizing Maps arbeiten mit Hilfe von unüberwachten Daten, die die Anzahl der Zufallsvariablen in einem Modell reduzieren. Bei dieser Art von Deep-Learning-Technik wird die Ausgabedimension als zweidimensionales Modell festgelegt, da jede Synapse mit ihren Eingabe- und Ausgabeknoten verbunden ist.

Während jeder Datenpunkt um seine Modelldarstellung konkurriert, aktualisiert die SOM die Gewichtung der nächstgelegenen Knoten oder Best Matching Units (BMUs) . Basierend auf der Nähe einer BMU ändert sich der Wert der Gewichte. Da Gewichtungen selbst als Knoteneigenschaft angesehen werden, repräsentiert der Wert die Position des Knotens im Netzwerk.

Funktioniert am besten in:

  • Wenn die Datensätze keine Y-Achsenwerte enthalten
  • Projektexplorationen zur Analyse des Dataset-Frameworks
  • Kreative Projekte in Musik, Videos und Text mit Hilfe von KI

6. Boltzmann-Maschinen

Dieses Netzwerkmodell hat keine vordefinierte Richtung und hat daher seine Knoten in einer kreisförmigen Anordnung verbunden. Aufgrund dieser Einzigartigkeit wird diese Deep-Learning-Technik verwendet, um Modellparameter zu erzeugen.

Anders als alle bisherigen deterministischen Netzwerkmodelle wird das Boltzmann-Maschinen-Modell als stochastisch bezeichnet.

Funktioniert am besten in:

  • Systemüberwachung
  • Aufbau einer binären Empfehlungsplattform
  • Analysieren bestimmter Datensätze

Lesen Sie: Schritt-für-Schritt-Methoden zum Erstellen Ihres eigenen KI-Systems heute

7. Tiefes Verstärkungslernen

Bevor Sie die Deep Reinforcement Learning-Technik verstehen, bezieht sich Reinforcement Learning auf den Prozess, bei dem ein Agent mit einer Umgebung interagiert, um deren Zustand zu ändern. Der Agent kann beobachten und entsprechend handeln, der Agent hilft einem Netzwerk, sein Ziel zu erreichen, indem er mit der Situation interagiert.

Hier, in diesem Netzwerkmodell, gibt es eine Eingabeschicht, eine Ausgabeschicht und mehrere verborgene Mehrfachschichten – wobei der Zustand der Umgebung die Eingabeschicht selbst ist. Das Modell arbeitet an den kontinuierlichen Versuchen, die zukünftige Belohnung jeder Aktion vorherzusagen, die in dem gegebenen Zustand der Situation unternommen wird.

Funktioniert am besten in:

  • Brettspiele wie Schach, Poker
  • Selbstfahrende Autos
  • Robotik
  • Bestandsverwaltung
  • Finanzaufgaben wie Asset Pricing

8. Autoencoder

Dieses Modell ist eine der am häufigsten verwendeten Arten von Deep-Learning-Techniken und arbeitet automatisch auf der Grundlage seiner Eingaben, bevor es eine Aktivierungsfunktion und eine endgültige Ausgabedecodierung übernimmt. Eine solche Engpassbildung führt dazu, dass weniger Datenkategorien geliefert werden und die meisten der inhärenten Datenstrukturen genutzt werden.

Die Arten von Autoencodern sind:

  • Sparse – Wo versteckte Schichten die Eingabeschicht übersteigen, damit der Generalisierungsansatz stattfindet, um Überanpassung zu reduzieren. Es begrenzt die Verlustfunktion und verhindert, dass der Autoencoder alle seine Knoten überbeansprucht.
  • Denoising – Hier wird eine modifizierte Version der Eingänge zufällig in 0 umgewandelt.
  • Kontraktiv – Hinzufügen eines Penalty-Faktors zur Verlustfunktion, um Überanpassung und Datenkopien zu begrenzen, falls die verborgene Schicht die Eingabeschicht übertrifft.
  • Gestapelt – Für einen Autoencoder führt das Hinzufügen einer weiteren versteckten Schicht zu zwei Codierungsstufen zu einer Decodierungsphase.

Funktioniert am besten in:

  • Feature-Erkennung
  • Aufbau eines überzeugenden Empfehlungsmodells
  • Fügen Sie Features zu großen Datasets hinzu

Lesen Sie: Regularisierung im Deep Learning

9. Backpropagation

Beim Deep Learning wird die Backpropagation- oder Backprop-Technik als der zentrale Mechanismus für neuronale Netze bezeichnet, um von etwaigen Fehlern bei der Datenvorhersage zu lernen. Ausbreitung hingegen bezieht sich auf die Übertragung von Daten in einer bestimmten Richtung über einen dedizierten Kanal. Das gesamte System kann im Moment der Entscheidung gemäß der Signalausbreitung in Vorwärtsrichtung arbeiten und sendet umgekehrt alle Daten über Mängel im Netzwerk zurück.

  • Zuerst analysiert das Netzwerk die Parameter und entscheidet über die Daten
  • Zweitens wird es mit einer Verlustfunktion gewichtet
  • Drittens wird der identifizierte Fehler zurückpropagiert, um alle falschen Parameter selbst anzupassen

Funktioniert am besten in:

  • Debuggen von Daten

10. Gradientenabstieg

Im mathematischen Kontext bezieht sich Gradient auf eine Neigung, die einen messbaren Winkel hat und in einer Beziehung zwischen Variablen dargestellt werden kann. Bei dieser Deep-Learning-Technik kann die Beziehung zwischen dem im neuronalen Netzwerk erzeugten Fehler und dem der Datenparameter als „x“ und „y“ dargestellt werden. Da die Variablen in einem neuronalen Netz dynamisch sind, kann daher der Fehler mit kleinen Änderungen erhöht oder verringert werden.

Viele Profis stellen sich die Technik als die eines Flusspfades vor, der die Berghänge hinunterführt. Ziel eines solchen Verfahrens ist es, — die optimale Lösung zu finden. Da es in einem neuronalen Netz mehrere lokale Minimallösungen gibt, in denen die Daten hängen bleiben und zu langsameren, fehlerhaften Kompilierungen führen können, gibt es Möglichkeiten, solche Ereignisse zu unterlassen.

Als Terrain des Berges gibt es bestimmte Funktionen im neuronalen Netzwerk namens Convex Functions, die dafür sorgen, dass die Daten in erwarteten Raten fließen und ihr Minimum erreichen. Aufgrund von Variationen in den Anfangswerten der Funktion können Unterschiede in den Methoden bestehen, die von den Daten verwendet werden, die in das endgültige Ziel eingegeben werden.

Funktioniert am besten in:

  • Aktualisieren von Parametern in einem bestimmten Modell

Lesen Sie auch: 15 interessante Projektideen für maschinelles Lernen für Anfänger

Einpacken

Es gibt mehrere Deep-Learning-Techniken , die mit seinen Funktionalitäten und seinem praktischen Ansatz einhergehen. Sobald diese Modelle identifiziert und in die richtigen Szenarien eingefügt wurden, können High-End-Lösungen basierend auf dem von Entwicklern verwendeten Framework erzielt werden. Viel Glück!

Informieren Sie sich über das Advanced Certification Program in Machine Learning & Cloud mit IIT Madras, der besten Ingenieurschule des Landes, um ein Programm zu erstellen, das Ihnen nicht nur maschinelles Lernen beibringt, sondern auch den effektiven Einsatz davon mithilfe der Cloud-Infrastruktur. Unser Ziel mit diesem Programm ist es, die Türen des selektivsten Instituts des Landes zu öffnen und den Lernenden Zugang zu erstaunlichen Fakultäten und Ressourcen zu verschaffen, um eine Fähigkeit zu meistern, die hoch ist und wächst

Was sind allgemeine gegnerische Netzwerke?

Es ist eine Mischung aus zwei Deep-Learning-Techniken für neuronale Netze: Generatoren und Diskriminatoren. Während das Generatornetzwerk fiktive Daten generiert, hilft der Discriminator bei der Unterscheidung zwischen tatsächlichen und fiktiven Daten. Da der Generator weiterhin falsche Daten produziert, die mit echten Daten identisch sind – und der Diskriminator weiterhin echte und unechte Daten erkennt – sind beide Netzwerke wettbewerbsfähig. Das Generator-Netzwerk generiert Simulationsergebnisse zu den authentischen Fotografien, falls eine Bildbibliothek erforderlich ist. Danach würde es ein neuronales Dekonvolutionsnetzwerk erstellen.

Wozu dienen selbstorganisierende Karten?

SOMs oder Self-Organizing Maps funktionieren, indem sie die Anzahl der Zufallsvariablen in einem Modell reduzieren, indem sie nicht überwachte Daten verwenden. Da sich jedes Neuron mit seinen Einlass- und Auslassknoten verbindet, wird die Ergebnisdimensionalität bei dieser Art von Deep-Learning-Technik als zweidimensionales Modell festgelegt. Die SOM passt den Wert der nächstgelegenen Knoten oder am besten passenden Einheiten an, da jeder Datenpunkt für seine Modelldarstellung (BMUs) bietet. Der Wert der Gewichte variiert je nachdem, wie nahe eine BMU ist. Da Gewichtungen an und für sich als Knoteneigenschaften betrachtet werden, gibt der Wert die Position des Knotens im Netzwerk an.

Was ist Backpropagation?

Der Back-Propagation-Algorithmus oder Back-Prop-Ansatz ist die wichtige Voraussetzung für neuronale Netze, um von Fehlern bei der Datenvorhersage im Deep Learning zu erfahren. Andererseits bezieht sich Ausbreitung auf die Übertragung von Daten in einer bestimmten Richtung über einen definierten Kanal. Im Moment der Wahl kann das Gesamtsystem gemäß der Signalausbreitung in Vorwärtsrichtung arbeiten und alle Daten über Netzwerkfehler in Rückwärtsrichtung zurücksenden.