Tutorial de rețea neuronală: Ghid pas cu pas pentru începători
Publicat: 2019-11-20În domeniul învățării automate, există multe concepte interesante. Aici, în acest tutorial de rețele neuronale, vom discuta unul dintre conceptele fundamentale ale rețelelor neuronale. Acest articol vă va ajuta să înțelegeți funcționarea acestor rețele, explicând teoria din spatele acestora.
După ce ați terminat acest tutorial de rețea neuronală artificială, veți afla:
- Ce este o rețea neuronală?
- Cum funcționează o rețea neuronală?
- Care sunt tipurile de rețele neuronale?
Cuprins
Ce sunt rețelele neuronale?
O rețea neuronală este un sistem conceput să acționeze ca un creier uman. Este destul de simplu, dar predominant în viața noastră de zi cu zi.
O definiție complexă ar fi aceea că o rețea neuronală este un model de calcul care are o arhitectură de rețea. Această arhitectură este formată din neuroni artificiali. Această structură are parametri specifici prin care se poate modifica pentru îndeplinirea anumitor sarcini.
Au proprietăți extinse de aproximare. Aceasta înseamnă că pot aproxima o funcție la orice nivel de precizie, indiferent de dimensiunea acesteia. Rețelele neuronale găsesc aplicații extinse în zonele în care computerele tradiționale nu se descurcă prea bine. De la Siri la Google Maps, rețelele neuronale sunt prezente în fiecare loc în care este folosită inteligența artificială.
Ele sunt o parte vitală a operațiunilor de inteligență artificială. Rețelele neuronale se inspiră din creierul uman și astfel structura lor este similară cu una.

Cum funcționează o rețea neuronală?
O rețea neuronală are multe straturi. Fiecare strat îndeplinește o funcție specifică, iar cu cât este complexă rețeaua, cu atât straturile sunt mai multe. De aceea o rețea neuronală mai este numită și perceptron cu mai multe straturi.
Cea mai pură formă a unei rețele neuronale are trei straturi:
- Stratul de intrare
- Stratul ascuns
- Stratul de ieșire
După cum sugerează numele, fiecare dintre aceste straturi are un scop specific. Aceste straturi sunt formate din noduri. Pot exista mai multe straturi ascunse într-o rețea neuronală în funcție de cerințe. Stratul de intrare preia semnalele de intrare și le transferă la stratul următor. Adună date din lumea exterioară.
Stratul ascuns îndeplinește toate sarcinile back-end de calcul. O rețea poate avea chiar zero straturi ascunse. Cu toate acestea, o rețea neuronală are cel puțin un strat ascuns. Stratul de ieșire transmite rezultatul final al calculului stratului ascuns.
La fel ca și alte aplicații de învățare automată, va trebui să antrenați o rețea neuronală și cu unele date de antrenament, înainte de a-i oferi o anumită problemă. Dar înainte de a detalia modul în care o rețea neuronală rezolvă o problemă, ar trebui să știți mai întâi despre funcționarea straturilor de perceptron:
Cum funcționează straturile de perceptron?
O rețea neuronală este formată din mai multe straturi de perceptron; de aceea are denumirea de „perceptron multistrat”. Aceste straturi mai sunt numite și straturi ascunse de straturi dense. Sunt formați din mulți neutroni perceptroni. Ele sunt unitatea primară care lucrează împreună pentru a forma un strat de perceptron. Acești neuroni primesc informații în setul de intrări. Combini aceste intrări numerice cu o părtinire și un grup de ponderi, care apoi produce o singură ieșire.
Pentru calcul, fiecare neuron ia în considerare ponderile și părtinirea. Apoi, funcția de combinare folosește greutatea și părtinirea pentru a da o ieșire (intrare modificată). Funcționează prin următoarea ecuație:
combinație = părtinire + ponderi * intrări
După aceasta, funcția de activare produce ieșirea cu următoarea ecuație:
ieșire = activare (combinație)
Această funcție determină ce fel de rol îndeplinește rețeaua neuronală. Ele formează straturile rețelei. Următoarele sunt funcțiile de activare predominante:
Funcția liniară
În această funcție, rezultatul este doar combinația neuronului:
activare = combinație
Funcția tangentă hiperbolică
Este cea mai populară funcție de activare printre rețelele neuronale. Este o funcție sigmoidă și se află între -1 și +1:
activare = tanh(combinație)
Funcția logistică
Funcția logistică este destul de asemănătoare cu funcția tangentă hiperbolică, deoarece este și un fel de funcție sigmoidă. Cu toate acestea, este diferit deoarece se află între 0 și 1:
activare = 1 1 + e -combinaţie
Funcția de unitate liniară rectificată
La fel ca funcția tangentă hiperbolică, funcția de unitate liniară rectificată este de asemenea predominantă. Un alt nume pentru funcția de unitate liniară rectificată este ReLU. ReLU este egal cu combinația atunci când este egal sau mai mare decât zero și este negativ dacă combinația este mai mică decât zero (negativ).
Deci, cum funcționează exact o rețea neuronală?
Acum că știți ce se află în spatele unei rețele neuronale și cum funcționează, ne putem concentra pe funcționarea unei rețele neuronale.
Iată cum funcționează:
- Informațiile sunt introduse în stratul de intrare care le transferă în stratul ascuns
- Interconexiunile dintre cele două straturi atribuie aleatoriu greutăți fiecărei intrări
- O părtinire adăugată la fiecare intrare după ce ponderile sunt înmulțite cu ele individual
- Suma ponderată este transferată în funcția de activare
- Funcția de activare determină ce noduri ar trebui să declanșeze pentru extragerea caracteristicilor
- Modelul aplică o funcție de aplicație stratului de ieșire pentru a furniza rezultatul
- Greutățile sunt ajustate, iar ieșirea este propagată înapoi pentru a minimiza eroarea
Modelul folosește o funcție de cost pentru a reduce rata de eroare. Va trebui să schimbați greutățile cu diferite modele de antrenament.

- Modelul compară rezultatul cu rezultatul inițial
- Se repetă procesul pentru a îmbunătăți acuratețea
Modelul ajustează greutățile în fiecare iterație pentru a îmbunătăți acuratețea rezultatului.
Alăturați-vă Cursului de inteligență artificială online de la cele mai bune universități din lume - Master, programe executive postuniversitare și program de certificat avansat în ML și AI pentru a vă accelera cariera.
Tipuri de rețele neuronale
1) Rețeaua neuronală recurentă (RNN)
În această rețea, ieșirea unui strat este salvată și transferată înapoi la intrare. În acest fel, nodurile unui anumit strat își amintesc câteva informații despre pașii trecuti. Combinația stratului de intrare este produsul sumei greutăților și caracteristicilor. Procesul rețelei neuronale recurente începe în straturile ascunse.
Aici, fiecare nod își amintește o parte din informațiile pasului său antecedent. Modelul reține unele informații din fiecare iterație, pe care le poate folosi ulterior. Sistemul învață singur când rezultatul său este greșit. Apoi folosește aceste informații pentru a crește acuratețea predicției sale în retropropagare. Cea mai populară aplicație a RNN este în tehnologia text-to-speech.
2) Rețeaua neuronală convoluțională (CNN)
Această rețea constă dintr-unul sau mai multe straturi convoluționale. Stratul convoluțional prezent în această rețea aplică o funcție convoluțională la intrare înainte de a o transfera la stratul următor. Din acest motiv, rețeaua are mai puțini parametri, dar devine mai profundă. CNN-urile sunt utilizate pe scară largă în procesarea limbajului natural și recunoașterea imaginilor.
3) Rețeaua neuronală cu funcție de bază radială (RBFNN)
Această rețea neuronală folosește o funcție de bază radială. Această funcție ia în considerare distanța unui punct față de centru. Aceste rețele constau din două straturi. Stratul ascuns combină caracteristicile cu funcția de bază radială și transferă rezultatul la stratul următor.
Următorul strat funcționează la fel în timp ce folosește rezultatul stratului anterior. Rețelele neuronale cu funcție de bază radială sunt utilizate în sistemele de alimentare.

4) Rețeaua neuronală feedforward (FNN)
Aceasta este cea mai pură formă a unei rețele neuronale artificiale. În această rețea, datele se deplasează într-o singură direcție, adică de la nivelul de intrare la nivelul de ieșire. În această rețea, stratul de ieșire primește suma produselor intrărilor și a greutăților acestora. Nu există propagare inversă în această rețea neuronală. Aceste rețele ar putea avea multe sau zero straturi ascunse. Acestea sunt mai ușor de întreținut și de găsit aplicație în recunoașterea feței.
5) Rețea neuronală modulară
Această rețea are mai multe rețele care funcționează independent. Toate îndeplinesc sarcini specifice, dar nu interacționează între ele în timpul procesului de calcul.
În acest fel, o rețea neuronală modulară poate îndeplini o sarcină extrem de complexă cu o eficiență mult mai mare. Aceste rețele sunt mai dificil de întreținut în comparație cu rețelele mai simple (cum ar fi FNN), dar oferă și rezultate mai rapide pentru sarcini complexe.
Aflați mai multe despre rețelele neuronale
Asta este în tutorialul nostru privind rețeaua neuronală. Trebuie să fi văzut ce o varietate de sarcini pot îndeplini aceste rețele. Sunt folosite în aproape toate tehnologiile pe care le folosim zilnic. Dacă doriți să aflați mai multe despre rețelele neuronale, puteți consulta catalogul nostru de cursuri despre inteligența artificială și învățarea automată.
Puteți verifica programul nostru Executive PG în Machine Learning și AI , care oferă ateliere practice practice, mentor individual în industrie, 12 studii de caz și sarcini, statutul de absolvenți IIIT-B și multe altele.
Cum funcționează o rețea neuronală?
Stratul de intrare primește datele și le transmite stratului ascuns. Greutățile sunt atribuite fiecărei intrări la întâmplare prin legăturile dintre cele două straturi. După ce ponderile sunt înmulțite cu ele individual, se aplică o părtinire fiecărei intrări. La funcția de activare se trece totalul ponderat. Pentru extragerea caracteristicilor, funcția de activare decide ce noduri trebuie declanșate. Pentru a furniza rezultatul, modelul folosește o funcție de aplicație pe stratul de ieșire. Pentru a reduce eroarea, greutățile sunt modificate și rezultatul este propagat invers.
Ce este o rețea neuronală recurentă?
Ieșirea unui strat este stocată și trimisă înapoi la intrarea în această rețea. Ca urmare, nodurile unui anumit strat rețin unele informații despre acțiunile anterioare. Totalul greutăților și caracteristicilor determină combinația stratului de intrare. Straturile ascunse sunt locul unde începe procesul bazat pe rnn. Fiecare nod de aici își amintește o parte din informațiile din etapa anterioară. Modelul salvează câteva date de la fiecare iterație, astfel încât să poată fi utilizat ulterior. Când rezultatul sistemului este incorect, acesta învață singur. Apoi folosește aceste cunoștințe pentru a optimiza acuratețea prognozei sale de propagare inversă. Tehnologia text-to-speech este cea mai comună aplicație a RNN.
Cum funcționează perceptronul multistrat?
Denumirea „perceptron multistrat” provine de la faptul că o rețea neuronală este formată din mai multe straturi de perceptron. Aceste straturi sunt cunoscute și ca straturi dense cu straturi ascunse. Ele sunt compuse dintr-un număr mare de neutroni perceptroni. Ele sunt blocurile de bază care alcătuiesc un strat de perceptron. Informațiile din colecția de intrări ajung la acești neuroni. Aceste intrări numerice sunt combinate cu o părtinire, precum și cu un grup de ponderi pentru a produce o singură ieșire.