7 rodzajów sztucznych sieci neuronowych, o których powinni wiedzieć inżynierowie ML
Opublikowany: 2019-12-17Sieci neuronowe to sieci używane w uczeniu maszynowym, które działają podobnie do ludzkiego układu nerwowego. Został zaprojektowany, aby funkcjonować jak ludzki mózg, w którym wiele rzeczy jest połączonych na różne sposoby. Sztuczne sieci neuronowe znajdują szerokie zastosowanie w obszarach, w których tradycyjne komputery nie radzą sobie zbyt dobrze. Istnieje wiele rodzajów sztucznych sieci neuronowych wykorzystywanych w modelu obliczeniowym.
Zestaw parametrów i operacji matematycznych określa typ sieci neuronowych, które zostaną użyte do uzyskania wyniku. Tutaj omówimy niektóre z krytycznych typów sieci neuronowych w uczeniu maszynowym:
Spis treści
7 najlepszych sztucznych sieci neuronowych w uczeniu maszynowym
1. Modułowe sieci neuronowe
W tego typu sieciach neuronowych wiele niezależnych sieci ma wspólny wkład w wyniki. Istnieje wiele podzadań wykonywanych i konstruowanych przez każdą z tych sieci neuronowych. Zapewnia to zestaw danych wejściowych, które są unikalne w porównaniu z innymi sieciami neuronowymi. Nie ma wymiany sygnałów ani interakcji między tymi sieciami neuronowymi, aby wykonać jakiekolwiek zadanie.
Złożoność problemu jest łatwo redukowana podczas rozwiązywania problemów przez te sieci modułowe, ponieważ całkowicie rozkładają one spory proces obliczeniowy na małe elementy. Szybkość obliczeń również poprawia się, gdy liczba połączeń jest zmniejszona i zmniejsza potrzebę wzajemnej interakcji sieci neuronowych.
Całkowity czas przetwarzania będzie również zależał od zaangażowania neuronów w obliczanie wyników oraz liczby neuronów zaangażowanych w proces. Modularne sieci neuronowe (MNN) to jeden z najszybciej rozwijających się obszarów sztucznej inteligencji.
2. Sieć neuronowa sprzężenia zwrotnego – sztuczny neuron
Informacje w sieci neuronowej przemieszczają się w jednym kierunku i są najczystszą formą sztucznej sieci neuronowej. Ten rodzaj sieci neuronowej może mieć ukryte warstwy i dane wprowadzane przez węzły wejściowe i wychodzące przez węzły wyjściowe. W tej sieci neuronowej wykorzystywana jest funkcja aktywacji klasyfikacji. Nie ma propagacji wstecznej i dozwolona jest tylko fala propagująca się od przodu.

Istnieje wiele zastosowań sieci neuronowych Feedforward, takich jak rozpoznawanie mowy i widzenie komputerowe. Łatwiej jest utrzymać tego typu sieci neuronowe, a także ma doskonałą reakcję na zaszumione dane.
Pobierz kurs sztucznej inteligencji online z najlepszych uniwersytetów na świecie. Zdobywaj programy Masters, Executive PGP lub Advanced Certificate Programy, aby przyspieszyć swoją karierę.
3. Radialna funkcja bazowa Sieć neuronowa
W funkcjach RBF są dwie warstwy. Są one używane do rozważenia odległości środka w stosunku do punktu. W pierwszej warstwie cechy w warstwie wewnętrznej są połączone z funkcją Radial Basis Function. W następnym kroku dane wyjściowe z tej warstwy są brane pod uwagę do obliczenia tego samego wyniku w następnej iteracji. Jedno z zastosowań funkcji Radial Basis można zaobserwować w Power Restoration Systems. Po przerwie w dostawie prądu istnieje potrzeba jak najszybszego przywrócenia zasilania.
4. Samoorganizująca się sieć neuronowa Kohonena
W tej sieci neuronowej wektory są wprowadzane do dyskretnej mapy z dowolnego wymiaru. Dane szkoleniowe organizacji są tworzone przez trenowanie mapy. Na mapie może znajdować się jeden lub dwa wymiary. Waga neuronów może się zmieniać w zależności od wartości.
Lokalizacja neuronu nie zmieni się podczas trenowania mapy i pozostanie stała. W pierwszej fazie procesu samoorganizacji każdej wartości neuronu nadawany jest wektor wejściowy i mała waga. Zwycięski neuron to taki, który znajduje się najbliżej punktu. Inne neurony również zaczną poruszać się w kierunku punktu wraz z neuronem wygrywającym w drugiej fazie.
Zwycięski neuron będzie miał najmniejszą odległość, a odległość euklidesowa służy do obliczania odległości między neuronami a punktem. Każdy neuron reprezentuje każdy rodzaj klastra, a grupowanie wszystkich punktów nastąpi w iteracjach.
Jednym z głównych zastosowań Kohonen Neural Network jest rozpoznawanie wzorców danych. Jest również stosowany w analizie medycznej do klasyfikacji chorób z większą dokładnością. Dane są grupowane w różne kategorie po przeanalizowaniu trendów w danych.

5. Rekurencyjna sieć neuronowa (RNN)
Zasada Recurrent Neural Network polega na tym, aby dane wyjściowe warstwy były ponownie przekazywane do danych wejściowych. Ta zasada pomaga przewidzieć wynik warstwy. W procesie obliczeń każdy neuron będzie działał jak komórka pamięci. Neuron zachowa pewne informacje, przechodząc do następnego kroku czasowego.
Nazywa się to powtarzającym się procesem sieci neuronowej. Dane, które będą używane później, zostaną zapamiętane i w tym procesie będą kontynuowane prace nad kolejnym krokiem. Przewidywanie poprawi się dzięki korekcji błędów. W korekcji błędów wprowadzane są pewne zmiany, aby uzyskać prawidłowe wyniki prognozy. Szybkość uczenia się to szybkość, z jaką sieć może dokonać prawidłowej prognozy na podstawie złej prognozy.
Rekurencyjne sieci neuronowe mają wiele zastosowań, a jednym z nich jest model konwersji tekstu na mowę. Rekurencyjna sieć neuronowa została zaprojektowana do nadzorowanego uczenia się bez wymogu sygnału nauczania.
6. Konwolucyjna sieć neuronowa
W tego typu sieciach neuronowych początkowo neuronom przypisuje się uczące się odchylenia i wagi. Przetwarzanie obrazu i przetwarzanie sygnału to tylko niektóre z jego zastosowań w dziedzinie widzenia komputerowego. Przejęła OpenCV.
Obrazy są zapamiętywane w częściach, aby pomóc sieci w operacjach obliczeniowych. Zdjęcia są rozpoznawane przez przyjęcie funkcji wejściowych w sposób wsadowy. W procesie obliczeniowym obraz jest konwertowany do skali szarości ze skali HSI lub RGB. Klasyfikacja obrazów odbywa się na różne kategorie po przekształceniu obrazu. Krawędzie są wykrywane przez ustalenie zmiany wartości piksela.

W ConvNet stosowana jest technika klasyfikacji obrazu i przetwarzania sygnału. W przypadku klasyfikacji obrazów Splotowe Sieci Neuronowe mają bardzo wysoki poziom dokładności. Jest to również powód, dla którego w technikach widzenia komputerowego dominują splotowe sieci neuronowe. Przewidywanie plonów i przyszłego wzrostu obszaru lądowego to inne zastosowania splotowych sieci neuronowych w pogodzie i rolnictwie.
7. Pamięć długo/krótkotrwała
Schmidhuber i Hochreiter w 1997 roku zbudowali sieć neuronową, którą nazwali sieciami pamięci długoterminowej (LSTM). Jego głównym celem jest zapamiętywanie rzeczy przez długi czas w komórce pamięci, która jest wyraźnie zdefiniowana. Poprzednie wartości są przechowywane w komórce pamięci, chyba że zostaniesz poproszony o zapomnienie wartości przez „zapomnij bramkę”.
Nowe elementy są dodawane przez „bramkę wejściową” do komórki pamięci i przekazywane do następnego stanu ukrytego z komórki wzdłuż wektorów, o których decyduje „brama wyjściowa”. Komponowanie prymitywnej muzyki, pisanie jak Szekspir lub uczenie się złożonych sekwencji to tylko niektóre z zastosowań LSTM.
Wniosek
Są to różne rodzaje sieci neuronowych, które są wykorzystywane do zasilania sztucznej inteligencji i uczenia maszynowego. Mamy nadzieję, że ten artykuł rzucił nieco światła na sieci neuronowe i typy używane w ML.
Jeśli masz pasję i chcesz dowiedzieć się więcej o sztucznej inteligencji, możesz podjąć studia IIIT-B i upGrad's PG Diploma in Machine Learning and Deep Learning , które oferuje ponad 400 godzin nauki, sesje praktyczne, pomoc w pracy i wiele więcej.
Co to jest sieć neuronowa LSTM?
Jego głównym celem jest przechowywanie informacji przez długi czas w wyraźnie określonej komórce pamięci. O ile „brama zapomnij” nie mówi komórce pamięci, aby zapomniała o poprzednich wartościach, poprzednie wartości są zachowywane w komórce pamięci. „Brama wejściowa” dodaje nowe informacje do komórki pamięci, które są następnie przesyłane do następnej ukrytej jednostki z komórki wzdłuż wektorów określonych przez „bramkę wyjściową”. Niektóre zastosowania LSTM obejmują podstawową kompozycję muzyczną, poezję szekspirowską i uczenie się trudnych sekwencji.
Jak działa sieć neuronowa funkcji radialnych?
Funkcje RBF są podzielone na dwie warstwy. Są one używane do obliczania odległości między punktem a jego środkiem. Funkcja Radial Basis służy do łączenia elementów w warstwie wewnętrznej w pierwszej warstwie. Dane wyjściowe z tej warstwy są używane w następnej fazie do obliczenia tego samego wyniku w następnej iteracji. Power Restoration Systems jest jednym z zastosowań funkcji Radial Basis. Po przerwie w dostawie prądu należy przywrócić zasilanie tak niezawodnie i szybko, jak to tylko możliwe.
Co to jest samoorganizująca się sieć neuronowa?
Wektory z dowolnego wymiaru są wprowadzane do dyskretnej mapy w tej sieci neuronowej. Mapa służy do tworzenia danych szkoleniowych dla organizacji. Mapa może mieć jeden lub dwa wymiary. W zależności od wartości waga neuronów może się zmieniać. Lokalizacja neuronu nie będzie się zmieniać podczas treningu mapy i pozostanie stała. Na początkowym etapie procesu samoorganizacji, każdej wartości neuronu przypisywany jest wektor wejściowy i niewielka waga. Zwycięża neuron, który znajduje się najbliżej punktu. W drugiej fazie inne neurony dołączą do zwycięskiego neuronu w ruchu w kierunku celu.