Top 10 tehnici de învățare profundă despre care ar trebui să știți
Publicat: 2020-05-29Cuprins
Introducere
Învățarea automată și inteligența artificială au schimbat lumea din jurul nostru în ultimii ani, cu inovația sa revoluționară. În plus, diferitele tehnici de învățare profundă duc învățarea automată la un nivel cu totul nou, unde mașinile pot învăța să discerne sarcinile, inspirate de rețeaua neuronală a creierului uman. Acesta este motivul pentru care avem control vocal pe smartphone-urile noastre și telecomenzile TV.
Există diferite tipuri de modele de învățare profundă care sunt atât precise, cât și abordează eficient problemele care sunt prea complexe pentru creierul uman. Iată cum:
Top 10 tehnici de învățare profundă
1. Rețele neuronale clasice
Cunoscut și sub denumirea de rețele neuronale complet conectate, este adesea identificat prin perceptronii săi multistrat, unde neuronii sunt conectați la stratul continuu. A fost proiectat de Fran Rosenblatt, un psiholog american, în 1958. Implica adaptarea modelului în intrări fundamentale de date binare. Există trei funcții incluse în acest model: acestea sunt:
- Funcție liniară: numită corect, reprezintă o singură linie care își înmulțește intrările cu un multiplicator constant.
- Funcția neliniară: este împărțită în trei subseturi:
- Curba sigmoidă: este o funcție interpretată ca o curbă în formă de S, cu intervalul său de la 0 la 1.
- Tangenta hiperbolică (tanh) se referă la curba în formă de S având un interval de la -1 la 1.
- Rectified Linear Unit (ReLU): Este o funcție cu un singur punct care dă 0 atunci când valoarea de intrare este mai mică decât valoarea setată și produce multiplu liniar dacă intrarea este mai mare decât valoarea setată.
Funcționează cel mai bine în:
- Orice set de date tabel care are rânduri și coloane formatate în CSV
- Probleme de clasificare și regresie cu introducerea de valori reale
- Orice model cu cea mai mare flexibilitate, precum cel al ANNS
2. Rețele neuronale convoluționale
CNN este un tip avansat și cu potențial ridicat al modelului clasic de rețea neuronală artificială. Este construit pentru a aborda complexitatea mai mare, preprocesarea și compilarea datelor. Se referă din ordinea de aranjare a neuronilor prezenți în cortexul vizual al creierului unui animal.
CNN-urile pot fi considerate drept unul dintre cele mai eficiente modele flexibile pentru specializarea în date de imagine și non-imagini. Acestea au patru organizații diferite:

- Este alcătuit dintr-un singur strat de intrare, care, în general, este un aranjament bidimensional de neuroni pentru analiza datelor de imagine primară, care este similar cu cel al pixelilor foto.
- Unele CNN constau, de asemenea, dintr-un strat de ieșire unidimensional de neuroni care procesează imaginile pe intrările lor, prin intermediul straturilor convoluționale conectate împrăștiate.
- CNN-urile au, de asemenea, prezența unui al treilea strat cunoscut sub numele de stratul de eșantionare pentru a limita numărul de neuroni implicați în straturile de rețea corespunzătoare.
- În general, CNN-urile au straturi conectate unice sau multiple care conectează eșantionarea la straturile de ieșire.
Acest model de rețea poate ajuta la obținerea datelor relevante ale imaginii sub formă de unități sau bucăți mai mici. Neuronii prezenți în straturile de convoluție sunt responsabili pentru grupul de neuroni din stratul anterior.
Odată ce datele de intrare sunt importate în modelul convoluțional, există patru etape implicate în construirea CNN:
- Convoluție: Procesul derivă hărți de caracteristici din datele de intrare, urmate de o funcție aplicată acestor hărți.
- Max-Pooling: ajută CNN să detecteze o imagine pe baza modificărilor date.
- Aplatizare: în această etapă, datele generate sunt apoi aplatizate pentru ca CNN să le analizeze.
- Conexiune completă: este adesea descrisă ca un strat ascuns care compilează funcția de pierdere pentru un model.
CNN-urile sunt adecvate pentru sarcini, inclusiv recunoașterea imaginilor, analiza imaginilor, segmentarea imaginilor, analiza video și procesarea limbajului natural. Cu toate acestea, pot exista și alte scenarii în care rețelele CNN se pot dovedi a fi utile, cum ar fi:
- Seturi de date de imagini care conțin analiza documentului OCR
- Orice date de intrare bidimensionale care pot fi transformate în continuare în unidimensionale pentru o analiză mai rapidă
- Modelul trebuie să fie implicat în arhitectura sa pentru a produce rezultate.
Citește mai mult: Rețea neuronală convulațională
3. Rețele neuronale recurente (RNN)
RNN-urile au fost concepute pentru a ajuta la prezicerea secvențelor, de exemplu, algoritmul Long Short-Term Memory (LSTM) este cunoscut pentru multiplele sale funcționalități. Astfel de rețele funcționează în întregime pe secvențe de date cu lungime variabilă de intrare.
RNN pune cunoștințele dobândite din starea anterioară ca valoare de intrare pentru predicția curentă. Prin urmare, poate ajuta la realizarea memoriei pe termen scurt într-o rețea, ceea ce duce la gestionarea eficientă a modificărilor prețului acțiunilor sau a altor sisteme de date bazate pe timp.
După cum am menționat mai devreme, există două tipuri generale de modele RNN care ajută la analiza problemelor. Sunt:
- LSTM-uri: Utile în predicția datelor în secvențe de timp, folosind memoria. Are trei porți: intrare, ieșire și uitare.
- Gated RNN: De asemenea, util în predicția datelor secvențelor de timp prin memorie. Are două porți - Actualizare și Resetare.
Funcționează cel mai bine în:
- Unu la unu: o singură intrare conectată la o singură ieșire, cum ar fi clasificarea imaginilor.
- Unu la mulți: o singură intrare legată de secvențe de ieșire, cum ar fi subtitrărea imaginii care include mai multe cuvinte dintr-o singură imagine.
- Many to One: serie de intrări care generează o singură ieșire, cum ar fi Analiza sentimentelor.
- Multe la multe: Serii de intrări care produc serii de ieșiri, cum ar fi clasificarea video.
De asemenea, este utilizat pe scară largă în traducerea limbilor, modelarea conversațiilor și multe altele.
Obțineți cel mai bun curs de învățare automată online de la cele mai bune universități din lume. Câștigă programe de master, Executive PGP sau Advanced Certificate pentru a-ți accelera cariera.
4. Rețele adversare generative
Este o combinație a două tehnici de deep learning ale rețelelor neuronale – un generator și un discriminator. În timp ce rețeaua generatoare furnizează date artificiale, discriminatorul ajută la discernământul dintre datele reale și cele false.
Ambele rețele sunt competitive, deoarece Generatorul continuă să producă date artificiale identice cu datele reale – iar Discriminatorul detectează continuu date reale și ireale. Într-un scenariu în care există o cerință de a crea o bibliotecă de imagini, rețeaua Generator ar produce date simulate pentru imaginile autentice. Ar genera apoi o rețea neuronală de deconvoluție.
Acesta ar fi apoi urmat de o rețea de detectoare de imagini pentru a diferenția între imaginile reale și cele false. Începând cu o șansă de precizie de 50% , detectorul trebuie să-și dezvolte calitatea clasificării, deoarece generatorul ar crește mai bine în generarea sa de imagini artificiale. O astfel de concurență ar contribui, în general, la eficacitatea și viteza rețelei.
Funcționează cel mai bine în:
- Generare de imagini și text
- De îmbunătățire a imaginii
- Procese noi de descoperire a medicamentelor
5. Hărți de auto-organizare
SOM-urile sau Hărțile de auto-organizare funcționează cu ajutorul datelor nesupravegheate care reduc numărul de variabile aleatorii dintr-un model. În acest tip de tehnică de învățare profundă , dimensiunea de ieșire este fixată ca un model bidimensional, deoarece fiecare sinapsă se conectează la nodurile sale de intrare și de ieșire.

Pe măsură ce fiecare punct de date concurează pentru reprezentarea modelului său, SOM actualizează greutatea celor mai apropiate noduri sau cele mai bune unități de potrivire (BMU) . În funcție de apropierea unei BMU, valoarea ponderilor se modifică. Deoarece greutățile sunt considerate ca o caracteristică a nodului în sine, valoarea reprezintă locația nodului în rețea.
Funcționează cel mai bine în:
- Când seturile de date nu vin cu valori pe axa Y
- Explorări de proiecte pentru analiza cadrului setului de date
- Proiecte creative în muzică, videoclipuri și text cu ajutorul AI
6. Mașini Boltzmann
Acest model de rețea nu vine cu nicio direcție predefinită și, prin urmare, are nodurile conectate într-un aranjament circular. Datorită acestei unicități, această tehnică de învățare profundă este utilizată pentru a produce parametrii modelului.
Diferit de toate modelele de rețea deterministe anterioare, modelul Boltzmann Machines este denumit stocastic.
Funcționează cel mai bine în:
- Monitorizarea sistemului
- Configurarea unei platforme binare de recomandare
- Analiza seturi de date specifice
Citiți: Metode pas cu pas pentru a vă construi propriul sistem AI astăzi
7. Învățare prin consolidare profundă
Înainte de a înțelege tehnica Deep Reinforcement Learning, învățarea prin întărire se referă la procesul în care un agent interacționează cu un mediu pentru a-și modifica starea. Agentul poate observa și întreprinde acțiuni în consecință, agentul ajută o rețea să-și atingă obiectivul interacționând cu situația.
Aici, în acest model de rețea, există un strat de intrare, un strat de ieșire și mai multe straturi multiple ascunse - unde starea mediului este stratul de intrare însuși. Modelul funcționează pe încercările continue de a prezice recompensa viitoare a fiecărei acțiuni întreprinse în starea dată a situației.
Funcționează cel mai bine în:
- Jocuri de masă precum șah, poker
- Mașini cu auto-conducere
- Robotică
- Managementul inventarului
- Sarcini financiare cum ar fi stabilirea prețurilor activelor
8. Autoencodere
Unul dintre cele mai frecvent utilizate tipuri de tehnici de învățare profundă , acest model funcționează automat pe baza intrărilor sale, înainte de a prelua o funcție de activare și decodarea finală a ieșirii. O astfel de formare de blocaj duce la obținerea unor categorii mai mici de date și la valorificarea majorității structurilor de date inerente.
Tipurile de codificatoare automate sunt:
- Rar – În cazul în care straturile ascunse depășesc numeric stratul de intrare pentru ca abordarea generalizării să aibă loc pentru a reduce supraadaptarea. Limitează funcția de pierdere și împiedică autoencoderul să utilizeze excesiv toate nodurile sale.
- Dezgomot – Aici, o versiune modificată a intrărilor este transformată în 0 la întâmplare.
- Contractiv – Adăugarea unui factor de penalizare la funcția de pierdere pentru a limita supraadaptarea și copierea datelor, în cazul în care stratul ascuns depășește stratul de intrare.
- Stivuit – La un autoencoder, odată ce este adăugat un alt strat ascuns, duce la două etape de codificare la cea a unei singure etape de decodificare.
Funcționează cel mai bine în:
- Detectarea caracteristicilor
- Crearea unui model de recomandare convingător
- Adăugați funcții la seturi mari de date
Citiți: Regularizarea în deep learning
9. Propagarea inversă
În învățarea profundă , tehnica de backpropagation sau back-prop este denumită mecanismul central pentru rețelele neuronale pentru a afla despre orice erori în predicția datelor. Propagarea, pe de altă parte, se referă la transmiterea datelor într-o direcție dată printr-un canal dedicat. Întregul sistem poate funcționa în funcție de propagarea semnalului în direcția înainte în momentul deciziei, și trimite înapoi orice date referitoare la deficiențe în rețea, în sens invers.
- În primul rând, rețeaua analizează parametrii și decide asupra datelor
- În al doilea rând, este ponderat cu o funcție de pierdere
- În al treilea rând, eroarea identificată este propagată înapoi pentru a auto-ajusta orice parametri incorecți
Funcționează cel mai bine în:
- Depanarea datelor
10. Coborâre în gradient
În context matematic, gradientul se referă la o pantă care are un unghi măsurabil și poate fi reprezentată într-o relație între variabile. În această tehnică de deep learning , relația dintre eroarea produsă în rețeaua neuronală și cea a parametrilor de date poate fi reprezentată ca „x” și „y”. Deoarece variabilele sunt dinamice într-o rețea neuronală, prin urmare eroarea poate fi crescută sau micșorată cu mici modificări.
Mulți profesioniști vizualizează tehnica ca pe o potecă de râu care coboară pe versanții munților. Obiectivul unei astfel de metode este de a găsi soluția optimă. Întrucât există prezența mai multor soluții minime locale într-o rețea neuronală, în care datele pot rămâne prinse și pot duce la compilari mai lente, incorecte, există modalități de a vă abține de la astfel de evenimente.

Ca teren al muntelui, există funcții speciale în rețeaua neuronală numite Funcții convexe, care mențin datele să curgă la ratele așteptate și să atingă cel mai minim. Pot exista diferențe în metodele luate de datele care intră în destinația finală din cauza variației valorilor inițiale ale funcției.
Funcționează cel mai bine în:
- Actualizarea parametrilor într-un model dat
Citește și: 15 idei interesante de proiecte de învățare automată pentru începători
Încheierea
Există mai multe tehnici de învățare profundă care vin cu funcționalitățile și abordarea practică. Odată ce aceste modele sunt identificate și plasate în scenariile potrivite, poate duce la realizarea de soluții de vârf bazate pe cadrul utilizat de dezvoltatori. Noroc!
Consultați Programul de certificare avansată în Machine Learning și Cloud cu IIT Madras, cea mai bună școală de inginerie din țară pentru a crea un program care vă învață nu numai învățarea automată, ci și implementarea eficientă a acestuia folosind infrastructura cloud. Scopul nostru cu acest program este de a deschide ușile celui mai selectiv institut din țară și de a oferi cursanților acces la facultăți și resurse uimitoare pentru a stăpâni o abilitate care este în creștere și în creștere.
Ce sunt rețelele adverse generale?
Este un hibrid de două tehnici de rețea neuronală de deep learning: generatori și discriminatori. În timp ce Rețeaua Generator generează date fictive, Discriminatorul ajută la diferența dintre datele reale și cele fictive. Deoarece Generatorul continuă să producă date false care sunt identice cu datele autentice – iar Discriminatorul continuă să recunoască datele reale și ireale – ambele rețele sunt competitive. Rețeaua Generator va genera rezultate de simulare pentru fotografiile autentice în cazul în care este necesară o bibliotecă de imagini. După aceea, ar crea o rețea neuronală de deconvoluție.
La ce folos hărțile auto-organizate?
SOM-urile sau hărțile auto-organizate funcționează prin reducerea numărului de variabile aleatorii dintr-un model prin utilizarea datelor nesupravegheate. Pe măsură ce fiecare neuron se conectează la nodurile sale de intrare și ieșire, dimensionalitatea rezultatului este stabilită ca un model bidimensional în acest tip de tehnică de învățare profundă. SOM ajustează valoarea celor mai apropiate noduri sau cele mai bune unități de potrivire, deoarece fiecare punct de date licitează pentru reprezentarea modelului său (BMU). Valoarea ponderilor variază în funcție de cât de aproape este un BMU. Deoarece ponderile sunt considerate caracteristici ale nodurilor în sine, valoarea semnifică poziția nodului în rețea.
Ce este propagarea inversă?
Algoritmul de propagare inversă sau abordarea back-prop este cerința importantă pentru rețelele neuronale pentru a afla despre orice eșec în predicția datelor în învățarea profundă. Pe de altă parte, propagarea se referă la transferul de date într-o direcție specifică pe un canal definit. În momentul alegerii, sistemul complet poate funcționa în funcție de propagarea semnalului în direcția înainte și trimite înapoi orice date referitoare la defecțiunile rețelei în direcția inversă.