Co to są bayesowskie sieci neuronowe? Tło, podstawowa idea i funkcja

Opublikowany: 2020-12-23

Spis treści

Wstęp

Ten artykuł dotyczy podstawowej koncepcji Bayesowskich Sieci Neuronowych. Ta konkretna koncepcja Bayesian Neural Networks pojawia się, gdy niewidoczne dane są wprowadzane do sieci neuronowej, powodując niepewność.

Miarą tej niepewności w przewidywaniu, której brakuje w architekturze sieci neuronowych, jest to, co wyjaśnia Bayesian Neural Nets. Rozwiązuje problem nadmiernego dopasowania, ale pomaga również w dodatkowych funkcjach, takich jak szacowanie niepewności i rozkład prawdopodobieństwa. Wyjaśniono również koncepcję sieci neuronowych.

Przeczytaj: Rodzaje nadzorowanego uczenia się

Tło Bayesowskiej Sieci Neuronowej

Porównując jeden z najlepiej działających systemów sztucznej inteligencji ostatnich dziesięciu lat, wszystkie te maszyny mają jedną wspólną cechę – wykorzystują wyrafinowaną technikę zwaną Deep Learning.

Rozcinając pojęcie Deep Learning, można zauważyć, że jest to nazwa, która pozwoliła na stosunkowo nowe podejście do Sztucznej Inteligencji, zwane Sieciami Neuralnymi, które są niekonsekwentnie w trendzie od ponad 70 lat. Jako przykład można zaobserwować, że koncepcja sieci neuronowych jest niejasno oparta na ludzkim mózgu, który składa się z milionów węzłów przetwarzających połączonych w gęstą siatkę, podobnie jak splecione druty.

Bayesowskie Sieci Neuronowe w wygodny sposób radzą sobie z kwestią niepewności danych uczących, które są w ten sposób zasilane.

Podstawowa idea Bayesowskiej sieci neuronowej

Sieci neuronowe, bardziej znane jako sieci neuronowe, to skuteczny sposób uczenia maszynowego, w którym komputer uczy się, analizuje i wykonuje zadania, analizując przykłady szkoleniowe. Użyte przykłady są w większości oznakowane ręcznie z wyprzedzeniem. Weźmy na przykład system rozpoznawania obiektów.

Informacje dotyczące oznakowanych obrazów samochodów, samochodów, domów lub jakichkolwiek przedmiotów są podawane lub karmione. Następnie formułuje logiczne wnioskowanie we wzorze wizualnym wstawionym jako dane, które powinny być konsekwentnie skorelowane z innymi określonymi etykietami.

Architekci pracujący z sieciami neuronowymi odnieśli zwycięstwo w rozkładaniu i uczeniu się bardzo skomplikowanych mapowań wejściowych i wyjściowych na podstawie danych. Niemniej jednak, podstawowa wiedza o tym samym systemie mapowania danych wejściowych i wyjściowych zwykle nie wystarcza do spełnienia większości sytuacji, zwłaszcza gdy istnieje potrzeba integracji przekonania o konkretnym modelu lub w sytuacji, gdy dane są ograniczone.

Bayesowskie sieci neuronowe to te kryteria lub parametry, które w większości przypadków są wyrażane jako rozkład i są zwykle poznawane za pomocą koncepcji wnioskowania bayesowskiego w porównaniu z wartością deterministyczną. Mają wewnętrzną zdolność do przetrawiania złożonej, nieliniowej funkcji z danych, a następnie wyrażania niepewności – obie jednocześnie. W związku z tym doprowadziło ich również do większej roli w dążeniu do gromadzenia i budowania bardziej niezawodnej i kompetentnej sztucznej inteligencji.

Musisz przeczytać: rodzaje modeli regresji w uczeniu maszynowym

Co to są Bayesowskie sieci neuronowe?

Stąd Bayesian Neural Network odnosi się do rozszerzenia standardowej sieci dotyczącej poprzedniego wnioskowania. Bayesowskie sieci neuronowe okazują się niezwykle skuteczne w określonych warunkach, gdy niepewność jest wysoka i absolutna. Okolicznościami tymi są mianowicie system podejmowania decyzji lub stosunkowo niższy zestaw danych, lub jakikolwiek rodzaj uczenia się opartego na modelach.

Głębokie sieci neuronowe (DNN) mają tendencję do formułowania logicznego wnioskowania na podstawie danych bez wcześniejszego doświadczenia z zestawem danych. W rezultacie sprawdzają się wyjątkowo dobrze w przypadku danych, które są z natury nieliniowe i dlatego wymagają dużej ilości danych wyłącznie do celów szkoleniowych. Ze względu na ładowanie większej ilości informacji, problem nadmiernego dopasowania powierzchni.

Problem, który pojawia się w obecnej sytuacji, polega na tym, że sieci neuronowe, jak zaobserwowano wcześniej, działają wyjątkowo dobrze z danymi, które są wprowadzane wyłącznie w celu uczenia, ale będą miały tendencję do gorszej wydajności, gdy do systemu zostaną wprowadzone nowe i obce dane. Prowadzi to do tego, że Sieci są ślepe na pewne niejasności w samych danych treningowych, co prowadzi do zbytniej pewności siebie w swoich przewidywaniach, co może być mylące. Aby pozbyć się takich błędów, stosuje się zatem Bayesowskie Sieci Neuronowe.

Jak działają bayesowskie sieci neuronowe (BNN)?

Głównym celem i ideą Bayesowskich Sieci Neuronowych jest to, że każda jednostka jest powiązana z rozkładem prawdopodobieństwa, który obejmuje wagi i błędy systematyczne.

Nazywa się je zmiennymi losowymi, które za każdym razem będą dostarczać zupełnie inną wartość.

Weźmy na przykład, jeśli X jest zmienną i jest zmienną całkowicie losową, reprezentuje rozkład normalny. Przy każdym dostępie do X podana jest rozbieżna wartość X. Proces uzyskiwania rozbieżnej wartości za każdym razem, gdy pobierana jest wartość X, nazywa się próbkowaniem. Wartość uzyskana z każdej próbki zależy od rozkładu prawdopodobieństwa.

Wraz ze wzrostem zasięgu rozkładu prawdopodobieństwa niepewność jest wprost proporcjonalna; w rezultacie również rośnie. Zazwyczaj w sieci neuronowej każda warstwa powinna mieć ustalone wagi, z odchyleniami, które zwykle dają rachunek wyników. Z drugiej strony, sieć bayesowska będzie miała rozkład prawdopodobieństwa, który zostanie dołączony do samej warstwy.

Za każdym razem wykonywane jest wielokrotne podanie do przodu, z nowym zestawem wag i odchyleń. Jest zatem używany do zajmowania się kwestią klasyfikacji. Dane wyjściowe są dostarczane dla każdego przejścia wykonanego w przód. Dane przesłane jako obraz wejściowy prowadzą do zwiększonej niepewności. W takim przypadku jest to obraz, którego sieć nie napotkała wcześniej dla klas wyjściowych.

Wniosek

Można bezpiecznie stwierdzić, że Bayesowskie Sieci Neuronowe są błogosławieństwem, jeśli chodzi o integrację i radzenie sobie z niepewnościami. Zamanifestowali również poprawę wydajności przewidywania.

Podstawowymi podstawowymi problemami, które pojawiają się w rozwoju Bayesowskiej Sieci Neuronowej lub jakiegokolwiek modelu opartego na prawdopodobieństwie, są trudne do wykonania obliczenia poprzedniego rozkładu i ich odpowiednie oczekiwania. Co więcej, wyjątkowo jasne jest, że problem overfittingu jest bardzo solidnie rozwiązywany przez sieci bayesowskie.

Jeśli chcesz dowiedzieć się więcej o uczeniu maszynowym, sprawdź dyplom PG IIIT-B i upGrad w uczeniu maszynowym i sztucznej inteligencji, który jest przeznaczony dla pracujących profesjonalistów i oferuje ponad 450 godzin rygorystycznego szkolenia, ponad 30 studiów przypadków i zadań, IIIT- Status absolwenta B, ponad 5 praktycznych, praktycznych projektów zwieńczenia i pomoc w pracy z najlepszymi firmami.

Jak zrobić model graficzny z sieci bayesowskiej?

Łącząc wszystkie węzły zaangażowane w każdy komponent, sieć bayesowska może zostać przekształcona w nieskierowany model graficzny. Wymaga to dołączenia rodziców każdego węzła. Graf moralny to graf nieskierowany, który odpowiada określonej sieci bayesowskiej. Obliczenie grafu moralnego jest pierwszym etapem wielu technik obliczeniowych sieci bayesowskich.

Jaki jest związek między siecią bayesowską a prawdopodobieństwem?

Sieć bayesowska jest tworzona przy użyciu acyklicznego grafu skierowanego. Bayesowska sieć neuronowa to model prawdopodobieństwa rozłożony na czynniki przez zastosowanie pojedynczego warunkowego rozkładu prawdopodobieństwa dla każdej zmiennej dla danego modelu. Rozkład opiera się na rodzicach na wykresie. Wydzielone zmienne w grafie są nadal niezależne, ale podstawowa separacja grafu nieskierowanego zostaje zastąpiona trudniejszą d-separacją, która uwzględnia wpływ konkurencyjnych wyjaśnień dla obserwowanych wartości.

Wymień jakieś założenie, jakie przyjmują sieci bayesowskie?

Gdy otrzymamy klasyfikację docelową, krytycznym założeniem dla naiwnych klasyfikatorów bayesowskich jest to, że wszystkie wartości zmiennych są warunkowo niezależne. To założenie bardzo pomaga w uproszczeniu obliczeń funkcji celu pod względem prawdopodobieństwa a posteriori. Jednak w przypadku niektórych aplikacji, takich jak dokumenty tekstowe i sygnały mowy, założenie to może nie być poprawne. Bayesowskie sieci przekonań mogą być użytecznym wyborem w tym scenariuszu. Wykorzystują zestaw warunkowo niezależnych prawdopodobieństw, zamiast narzucać wszystkie możliwe wartości wszystkim zmiennym.