Worum geht es beim geometrischen Deep Learning?
Veröffentlicht: 2020-12-22Die Deep-Learning-Algorithmen wie Recurrent Neural Networks (RNN) und Convolutional Neural Networks (CNN) haben in den letzten Jahren erhebliche Arbeit bei der Lösung von Problemen in verschiedenen Bereichen wie Spracherkennung, Computer Vision und vielem mehr geleistet. Obwohl die Ergebnisse eine große Genauigkeit hatten, funktionierten sie hauptsächlich mit euklidischen Daten.
Aber wenn es um Netzwerkwissenschaft, Physik, Biologie, Computergrafik und Recommender-Systeme geht, müssen wir uns mit nicht-euklidischen Daten befassen, dh mit Mannigfaltigkeiten und Graphen. Geometric Deep Learning befasst sich mit diesen nicht-euklidischen Daten im Sinne von Deep-Learning-Techniken als Ganzes mit den mannigfaltigen oder graphisch strukturierten Daten.
Inhaltsverzeichnis
Was ist geometrisches Deep Learning?
In den letzten Jahren haben wir erhebliche Fortschritte auf dem Gebiet des Deep Learning und des maschinellen Lernens erlebt. Die Computerleistung wächst rasant, und die verfügbaren Daten werden mit den Algorithmen, die bereits 1980 – 1990 entwickelt wurden, für ihre neuen Anwendungen kombiniert.
Wenn es einen Bereich gibt, der stark von dieser Entwicklung profitiert hat, dann ist das Repräsentationslernen. Repräsentationslernen ist ein Teil des überwachten Lernens und wird auch Feature-Lernen genannt. Feature Learning ersetzt Feature Engineering in vielen Anwendungen direkt. Zu Ihrer Information: Feature-Engineering ist ein Bereich, der sich mit der Entwicklung von Deskriptoren und Features zur Durchführung anderer Machine-Learning-Aufgaben befasst.
Eines der besten Beispiele ist die Verwendung von Convolutional Neural Networks (CNN) zur Objekterkennung, Bildklassifizierung und Erzielung einer hohen Genauigkeit, wodurch ein Maßstab für die anderen herkömmlichen Algorithmen gesetzt wird. ImageNet führte 2012 einen Wettbewerb durch und übertraf ein SOTA, das auf Feature Engineering basiert, erheblich.
Lassen Sie uns nun das Gebiet verstehen, das einen ähnlichen Ursprung und eine blühende Zukunft hat, das geometrische Deep Learning.

Der Begriff geometrisches Deep Learning wurde erstmals von Bronstein et al. in ihrem 2017 veröffentlichten Artikel lautete der Titel des Artikels: „Geometric Deep Learning: going beyond euclidian data“.
Es ist ein starker Titel, der sagt, dass geometrisches Deep Learning in der Lage ist, Deep Learning sogar auf nicht-euklidische Daten anzuwenden. Nicht-euklidische Daten sind eine Menge von Daten, die nicht in einen zweidimensionalen Raum passen.
Normalerweise eine grafische Spezialisierung oder ein Netz, das im Bereich der Computergrafik sehr umfangreich ist, um die nicht-euklidischen Daten zu visualisieren.
Die Zahl auf der linken Seite gibt die geodätische Entfernung an und auf der rechten Seite die euklidische Entfernung. Das Gitter in der obigen Abbildung ist das Gesicht einer Person. Über das Netz hinweg ist die kürzeste Oberflächenentfernung nun die geodätische Entfernung zwischen zwei Orientierungspunkten. Während die Entfernung, die zwischen zwei Orientierungspunkten unter Verwendung einer geraden Linie berechnet wird, die euklidische Entfernung ist.
Die geodätische Entfernung ist der Hauptvorteil der Darstellung eines Netzes in einer nicht-euklidischen Form, da sie für die darauf ausgeführten Aufgaben von größerer Bedeutung ist. Es ist nicht so, dass wir die nicht-euklidischen Daten nicht von Natur aus in euklidische Daten umwandeln können, aber was passiert, ist, dass der Verlust von Leistung und Effizienz hohe Kosten verursacht.
Ein erstklassiges und wichtiges Beispiel für nicht-euklidische Daten wäre ein Graph. Ein Graph ist eine solche Datenstruktur, die aus Entitäten oder Knoten besteht, die mit den Beziehungen oder Kanten verbunden sind. Ein Graph kann verwendet werden, um fast alles zu modellieren.
Nun, Sie müssen sich nicht mit Graphentheorie auskennen, Sie müssen nur ein bisschen darin lesen, damit Sie die Softwarebibliotheken verwenden können, die für den Prozess erforderlich sind. Für eine hervorragende Einführung in den Graphen und seine grundlegende Theorie sollten Sie über glasklare Grundkenntnisse des geometrischen Deep Learning verfügen.
Für die zu verwendenden Daten zur Lösung des Problems basierend auf geometrischem Deep Learning, wenn Sie die erreichbaren Instanzen bereits anhand der Daten erkennen, über die Sie verfügen müssen, oder umgekehrt; dann ist es ein Best-Case-Szenario.
Lesen Sie: Convulational Neural Network

Statistische Argumentation
Was wir verstehen wollen, ist der Unterschied zwischen induktivem Denken und deduktivem Denken. Beim deduktiven Denken werden die allgemeinen Begriffe verwendet, um zu einer bestimmten Schlussfolgerung zu kommen oder eine bestimmte Behauptung aufzustellen. Fassen wir diese beiden Behauptungen zu einem Beispiel zusammen.
„Alle Mädchen haben im Test 10/10 erzielt“ und „Taylor ist ein Mädchen“ bedeutet schließlich, dass „Taylor im Test 10/10 erzielt hat“. Induktives Denken ist umgekehrt; hier wird eine allgemeine Idee oder Schlussfolgerung aus bestimmten Begriffen gezogen. Nehmen wir ein Beispiel, um die Argumentation zu veranschaulichen. Beantworte diese Frage:
Welche Kuh gibt nur H-Milch? Wenn Sie „keine“ sagen, gehören Sie zu den 21 % der befragten Jugendlichen. 5 % der befragten Jugendlichen kreuzten „Milka-Kühe“ an, 10 % kreuzten „alle“ an, 2 % von ihnen stellten sich für „weibliche Kühe“ und „schwarz-weiße Kühe“ an und 50 % von ihnen hatten keine Antwort.
Lesen Sie auch: Wiederkehrendes neuronales Netzwerk
Aus diesem Ergebnis gibt es viel zu analysieren, aber betrachten wir den Milka-Kühe-Gedanken. Lassen Sie uns die Schlussfolgerung in induktiver Argumentationsform aus der Sicht der Jugend verstehen. Erstens „Milka-Kuh ist eine besondere Rasse“, „UHT-Milch ist etwas Besonderes“, was schließlich zu „UHT-Milch wird von einer Milka-Kuh geliefert“ führt.
Was können wir daraus zusammenfassen? Induktive Voreingenommenheit oder induktives Denken ist eine Reihe von Annahmen des Lernenden, die ausreichen, um seine induktive und deduktive Interferenz zu erklären. Beim Entwerfen der Algorithmen der induktiven Vorspannung muss man sehr vorsichtig sein. Man kann induktive Interferenzen verwenden, um Ergebnisse zu erzielen, die deduktiven Schlussfolgerungen äquivalent sind.
Interessante Tatsache: Wenn es im mathematischen Korpus der größeren Informatik ein Fach gibt, das dafür bekannt ist, als schwieriges Fach betrachtet zu werden, dann ist es die Graphentheorie in der diskreten Mathematik.
Die Graphentheorie ermöglicht es uns jedoch, einige spannende Aufgaben zu erledigen und mit Deep Learning erstaunliche Erkenntnisse zu liefern.
Diagrammsegmentierung
Die Segmentierung von Graphen ist ein Prozess zur Klassifizierung einer und aller Komponenten eines Graphen wie Knoten (Entitäten), Kanten (Beziehungen). Denken Sie an autonome Autos, die ihre Umgebung in regelmäßigen Abständen überwachen lassen und vorhersagen müssen, was sie von den Fußgängern als nächstes erwarten würden.
Üblicherweise werden menschliche Fußgänger entweder als riesige Bounding Boxes in drei Dimensionen oder als mehrstufige Bewegungsskelette dargestellt. Mit einer schnelleren und besseren dreidimensionalen semantischen Segmentierung würden autonome Autos immer mehr Algorithmen haben, die die Wahrnehmung möglich machen.

Graph-Klassifizierung
Bei der Graphenklassifizierung erhält der Algorithmus einen Graphen oder Teilgraphen als Eingabe und interpretiert eine Ausgabe von n Klassen, die mit einem mit der Vorhersage kombinierten Gewissheitswert angegeben sind. Es ist äquivalent zur Bildklassifizierung, bei der das verwendete Netzwerk zwei Hauptteile hat.
Der erste wichtige Teil ist der Feature Extractor, der eine optische Darstellung der Eingabedaten erstellt. Dann werden vollständig verbundene Schichten verwendet, um die Ausgaberegression auf eine bestimmte Dimensionalität zu beschränken. Andererseits wird für die Mehrklassenklassifizierung ein Softmax-Layer benötigt.
Muss gelesen werden: Schritt-für-Schritt-Methoden zum Erstellen Ihres eigenen KI-Systems heute
Das Endergebnis
Wir haben Geometric Deep Learning in der Tiefe verstanden, indem wir es in den Deep-Learning-Kontext insgesamt gestellt haben. Wir können schlussfolgern, dass sich geometrisches Deep Learning mit unregelmäßigen Daten als Ganzes befasst, und wir haben etwas über Graphen gelernt, indem wir gezeigt haben, wie vielversprechend ihre Rolle bei Lernverzerrungen ist.
Wenn Sie mehr über Deep-Learning-Techniken und maschinelles Lernen erfahren möchten, sehen Sie sich das PG-Diplom in maschinellem Lernen und KI von IIIT-B & upGrad an, das für Berufstätige konzipiert ist und mehr als 450 Stunden strenge Schulungen, mehr als 30 Fallstudien und Aufgaben, IIIT-B-Alumni-Status, mehr als 5 praktische praktische Abschlussprojekte und Arbeitsunterstützung bei Top-Unternehmen.