Che cos'è una rete neurale bayesiana? Sfondo, idea di base e funzione

Pubblicato: 2020-12-23

Sommario

introduzione

Questo articolo tratta il concetto fondamentale delle reti neurali bayesiane. Questo particolare concetto di reti neurali bayesiane entra in gioco quando i dati invisibili vengono inseriti nella rete neurale, creando incertezza.

La misura di questa incertezza nella previsione, che manca alle architetture di rete neurale, è ciò che spiega le reti neurali bayesiane. Affronta l'overfitting ma aiuta anche nelle funzionalità aggiuntive come la stima dell'incertezza e la distribuzione di probabilità. Anche il concetto di Reti Neurali è stato spiegato.

Leggi: Tipi di apprendimento supervisionato

Sfondo della rete neurale bayesiana

Confrontando uno dei sistemi di intelligenza artificiale più performanti degli ultimi dieci anni, tutte queste macchine hanno una cosa in comune: incorporano una tecnica sofisticata chiamata Deep Learning.

Aprendo il concetto di Deep Learning, si può osservare che si tratta di un nome che ha consentito un approccio relativamente nuovo all'Intelligenza Artificiale, chiamato Reti Neurali, che sono di tendenza incoerente da circa 70 anni. Ad esempio, si osserva che il concetto di Reti Neurali è vagamente basato sul cervello umano, che consiste in milioni di nodi di elaborazione collegati come una fitta maglia proprio come fili intrecciati.

Le reti neurali bayesiane, quindi, affrontano convenientemente il problema delle incertezze nei dati di addestramento che vengono così alimentati.

Idea di base della rete neurale bayesiana

Le reti neurali, più popolarmente conosciute come le reti neurali, sono un modo efficace di Machine Learning, in cui il computer apprende, analizza ed esegue i compiti analizzando gli esempi di formazione. Gli esempi utilizzati sono per lo più etichettati a mano in anticipo. Ad esempio, prendi un sistema di riconoscimento degli oggetti.

Le informazioni relative alle immagini etichettate di automobili, automobili, case o qualsiasi oggetto vengono fornite o alimentate. Quindi formula un'inferenza logica nel modello visivo inserito come dati che devono essere costantemente correlati con altre etichette specifiche.

Gli architetti che lavorano con Neural Nets sono stati vittoriosi nella scomposizione e nell'apprendimento di mappature di input e output molto intricate dai dati. Tuttavia, una conoscenza di base dello stesso input e del sistema di mappatura degli output di solito finisce per non soddisfare la maggior parte delle situazioni, specialmente quando è necessaria l'integrazione delle credenze di un particolare modello o in circostanze in cui i dati sono limitati.

Le reti neurali bayesiane sono quei criteri o parametri che nella maggior parte dei casi sono espressi come distribuzione e di solito vengono appresi attraverso il concetto di inferenza bayesiana, rispetto a un valore deterministico. Hanno una capacità interiore di digerire la complessa funzione non lineare dai dati e quindi di esprimere le incertezze, entrambi allo stesso tempo. Di conseguenza, li ha anche portati a un ruolo più importante nella ricerca per ottenere e costruire un'IA più affidabile e competente.

Da leggere: Tipi di modelli di regressione nell'apprendimento automatico

Cosa sono le reti neurali bayesiane?

Quindi, Rete neurale bayesiana si riferisce all'estensione della rete standard relativa all'inferenza precedente. Le reti neurali bayesiane si dimostrano estremamente efficaci in contesti specifici quando l'incertezza è alta e assoluta. Tali circostanze sono in particolare il sistema decisionale, o con un set di dati relativamente basso, o qualsiasi tipo di apprendimento basato su modelli.

Le reti neurali profonde (DNN) tendono a formulare un'inferenza logica con i dati forniti senza avere alcuna esperienza precedente con l'insieme di dati. Di conseguenza, funzionano eccezionalmente bene con dati che non sono lineari per natura e, pertanto, richiedono una grande quantità di dati per il solo scopo di formazione. A causa del caricamento di ulteriori informazioni, il problema del sovradattamento delle superfici.

Il dilemma che sorge nella situazione attuale è che le reti neurali, come osservato in precedenza, funzionano eccezionalmente bene con i dati che vengono forniti al solo scopo di addestramento, ma tenderanno a sottoperformare quando vengono inseriti nel sistema dati nuovi ed estranei. Ciò porta i Nets a non vedere certe incertezze nei dati di addestramento stessi, portandoli a essere eccessivamente sicuri delle loro previsioni, il che può essere fuorviante. Per farla finita con errori come questi, vengono quindi utilizzate le reti neurali bayesiane.

Come funzionano le reti neurali bayesiane (BNN)?

L'oggetto principale e l'idea alla base delle reti neurali bayesiane è che ogni unità è in associazione con la distribuzione di probabilità, che include i pesi e le distorsioni.

Sono note come variabili casuali, che forniranno un valore completamente diverso ogni volta che vi si accede.

Facendo un esempio, se X è una variabile ed è una variabile completamente casuale, rappresenta la distribuzione normale. Ogni volta che si accede a X, viene assegnato un valore divergente di X. Il processo per ottenere un valore divergente ogni volta che viene recuperato il valore di X è chiamato Campionamento. Il valore che viene derivato da ogni campione dipende dalla distribuzione di probabilità.

All'aumentare dell'ambito della distribuzione di probabilità, l'incertezza è direttamente proporzionale; di conseguenza, aumenta anche. Tipicamente in una rete neurale, ogni livello deve avere pesi fissi, con le distorsioni che di solito danno conto dell'output. Una rete bayesiana, invece, avrà la distribuzione di probabilità che sarà collegata al livello stesso.

Ogni volta viene eseguito un passaggio in avanti multiplo, con una nuova serie di pesi e distorsioni. Viene quindi utilizzato per affrontare la questione della classificazione. L'output viene fornito per ogni passaggio effettuato in avanti. I dati caricati come immagine di input sono ciò che porta a una maggiore incertezza. In tal caso, è un'immagine che la rete non ha mai incontrato prima per le classi di output.

Conclusione

È lecito concludere che le reti neurali bayesiane sono una benedizione quando si tratta di integrare e affrontare le incertezze. Hanno anche manifestato per migliorare le prestazioni di previsione.

I principali problemi fondamentali che si verificano nello sviluppo della rete neurale bayesiana o di qualsiasi modello basato sulla probabilità sono i calcoli intrattabili della distribuzione precedente e le rispettive aspettative. Inoltre, è eccezionalmente chiaro che il problema dell'overfitting è affrontato in modo molto robusto dalle reti bayesiane.

Se sei interessato a saperne di più sull'apprendimento automatico, dai un'occhiata al Diploma PG di IIIT-B e upGrad in Machine Learning e AI, progettato per i professionisti che lavorano e offre oltre 450 ore di formazione rigorosa, oltre 30 casi di studio e incarichi, IIIT- B Status di Alumni, oltre 5 progetti pratici pratici e assistenza sul lavoro con le migliori aziende.

Come si crea un modello grafico da una rete bayesiana?

Collegando tutti i nodi coinvolti in ogni componente, una rete bayesiana può essere trasformata in un modello grafico non orientato. Ciò richiede l'unione dei genitori di ogni nodo. Un grafo morale è un grafo non orientato che corrisponde a una specifica rete bayesiana. Il calcolo del grafo morale è il primo stadio di molte tecniche di calcolo delle reti bayesiane.

Qual è la relazione tra una rete bayesiana e la probabilità?

Una rete bayesiana viene creata utilizzando un grafo diretto aciclico. Una rete neurale bayesiana è un modello di probabilità che viene scomposto applicando una singola distribuzione di probabilità condizionale per ogni variabile per il modello dato. La distribuzione si basa sui genitori nel grafico. Le variabili nel grafico che sono separate sono ancora indipendenti, ma la separazione del grafico di base del grafico non orientato viene sostituita con la più difficile separazione d, che prende in considerazione l'influenza delle spiegazioni concorrenti per i valori osservati.

Citare qualche ipotesi che fanno le reti bayesiane?

Quando ci viene fornita la classificazione target, un presupposto critico per i classificatori bayesiani ingenui è che tutti i valori delle variabili siano condizionatamente indipendenti. Questa ipotesi aiuta notevolmente a semplificare i calcoli della funzione obiettivo in termini di probabilità a posteriori. Tuttavia, per alcune applicazioni, come documenti di testo e segnali vocali, questa ipotesi potrebbe non essere corretta. Le reti di credenze bayesiane possono essere una scelta utile in questo scenario. Impiegano un insieme di probabilità condizionatamente indipendenti piuttosto che imporre tutti i valori possibili a tutte le variabili.