Top 10 des techniques d'apprentissage en profondeur que vous devriez connaître

Publié: 2020-05-29

Table des matières

introduction

L'apprentissage automatique et l'IA ont changé le monde qui nous entoure ces dernières années grâce à leur innovation de rupture. De plus, ce sont les différentes techniques d'apprentissage en profondeur qui amènent l'apprentissage automatique à un tout autre niveau où les machines peuvent apprendre à discerner les tâches, inspirées par le réseau neuronal du cerveau humain. C'est la raison pour laquelle nous avons le contrôle vocal sur nos smartphones et télécommandes TV.

Il existe différents types de modèles d'apprentissage en profondeur qui sont à la fois précis et s'attaquent efficacement à des problèmes trop complexes pour le cerveau humain. Voici comment:

Top 10 des techniques d'apprentissage en profondeur

1. Réseaux de neurones classiques

Également connu sous le nom de réseaux de neurones entièrement connectés, il est souvent identifié par ses perceptrons multicouches, où les neurones sont connectés à la couche continue. Il a été conçu par Fran Rosenblatt, un psychologue américain, en 1958. Il implique l'adaptation du modèle en entrées de données binaires fondamentales. Il y a trois fonctions incluses dans ce modèle : ce sont :

  • Fonction linéaire : appelée à juste titre, elle représente une seule ligne qui multiplie ses entrées par un multiplicateur constant.
  • Fonction non linéaire : elle est divisée en trois sous-ensembles :
  1. Courbe sigmoïde : C'est une fonction interprétée comme une courbe en forme de S avec sa plage de 0 à 1.
  2. La tangente hyperbolique (tanh) fait référence à la courbe en forme de S ayant une plage de -1 à 1.
  3. Unité linéaire rectifiée (ReLU) : il s'agit d'une fonction à point unique qui donne 0 lorsque la valeur d'entrée est inférieure à la valeur définie et produit le multiple linéaire si l'entrée donnée est supérieure à la valeur définie.

Fonctionne mieux dans :

  1. Tout ensemble de données de table contenant des lignes et des colonnes au format CSV
  2. Problèmes de classification et de régression avec l'entrée de valeurs réelles
  3. Tout modèle avec la plus grande flexibilité, comme celui d'ANNS

2. Réseaux de neurones convolutionnels

CNN est un type avancé et à haut potentiel du modèle classique de réseau de neurones artificiels. Il est conçu pour s'attaquer à une plus grande complexité, au prétraitement et à la compilation de données. Il se réfère à l'ordre d'arrangement des neurones présents dans le cortex visuel d'un cerveau animal.

Les CNN peuvent être considérés comme l'un des modèles flexibles les plus efficaces pour se spécialiser dans les données d'image et non d'image. Ceux-ci ont quatre organisations différentes :

  • Il est constitué d'une seule couche d'entrée, qui est généralement un agencement bidimensionnel de neurones pour l'analyse des données d'image primaires, qui est similaire à celui des pixels photo.
  • Certains CNN consistent également en une couche de sortie unidimensionnelle de neurones qui traite les images sur leurs entrées, via les couches convolutives connectées dispersées.
  • Les CNN ont également la présence d'une troisième couche dite couche d'échantillonnage pour limiter le nombre de neurones impliqués dans les couches réseau correspondantes.
  • Dans l'ensemble, les CNN ont une ou plusieurs couches connectées qui connectent l'échantillonnage aux couches de sortie.

Ce modèle de réseau peut aider à dériver des données d'image pertinentes sous la forme d'unités ou de blocs plus petits. Les neurones présents dans les couches de convolution sont responsables du groupe de neurones de la couche précédente.

Une fois les données d'entrée importées dans le modèle convolutif, la construction du CNN comporte quatre étapes :

  • Convolution : le processus dérive des cartes d'entités à partir des données d'entrée, suivies d'une fonction appliquée à ces cartes.
  • Max-Pooling : Cela aide CNN à détecter une image en fonction de modifications données.
  • Aplatissement : à cette étape, les données générées sont ensuite aplaties pour qu'un CNN les analyse.
  • Connexion complète : elle est souvent décrite comme une couche cachée qui compile la fonction de perte pour un modèle.

Les CNN sont adéquats pour les tâches, y compris la reconnaissance d'images, l'analyse d'images, la segmentation d'images, l'analyse vidéo et le traitement du langage naturel. Cependant, il peut y avoir d'autres scénarios où les réseaux CNN peuvent s'avérer utiles comme :

  • Ensembles de données d'images contenant l'analyse de documents OCR
  • Toutes les données d'entrée bidimensionnelles qui peuvent être ensuite transformées en données unidimensionnelles pour une analyse plus rapide
  • Le modèle doit être impliqué dans son architecture pour produire une sortie.

Lire la suite : Réseau de neurones convulationnels

3. Réseaux de neurones récurrents (RNN)

Les RNN ont d'abord été conçus pour aider à prédire les séquences, par exemple, l'algorithme Long Short-Term Memory (LSTM) est connu pour ses multiples fonctionnalités. De tels réseaux fonctionnent entièrement sur des séquences de données de longueur d'entrée variable.

Le RNN place les connaissances acquises à partir de son état précédent comme valeur d'entrée pour la prédiction actuelle. Par conséquent, cela peut aider à obtenir une mémoire à court terme dans un réseau, conduisant à une gestion efficace des variations du cours des actions ou à d'autres systèmes de données basés sur le temps.

Comme mentionné précédemment, il existe deux types généraux de conceptions RNN qui aident à analyser les problèmes. Elles sont:

  • LSTM : utiles dans la prédiction de données dans des séquences temporelles, en utilisant la mémoire. Il a trois portes : Input, Output et Forget.
  • RNN contrôlés : également utiles pour la prédiction de données de séquences temporelles via la mémoire. Il a deux portes : mise à jour et réinitialisation.

Fonctionne mieux dans :

  • One to One : Une seule entrée connectée à une seule sortie, comme la classification d'image.
  • Un à plusieurs : une seule entrée liée à des séquences de sortie, comme le sous-titrage d'image qui comprend plusieurs mots d'une seule image.
  • Plusieurs à un : série d'entrées générant une sortie unique, comme l'analyse des sentiments.
  • Plusieurs à plusieurs : série d'entrées produisant une série de sorties, comme la classification vidéo.

Il est également largement utilisé dans la traduction linguistique, la modélisation de conversation, etc.

Obtenez le meilleur cours d'apprentissage automatique en ligne des meilleures universités du monde. Gagnez des programmes de maîtrise, Executive PGP ou Advanced Certificate pour accélérer votre carrière.

4. Réseaux antagonistes génératifs

Il s'agit d'une combinaison de deux techniques d'apprentissage en profondeur des réseaux de neurones - un générateur et un discriminateur. Alors que le réseau générateur produit des données artificielles, le discriminateur aide à discerner entre une vraie et une fausse donnée.

Les deux réseaux sont compétitifs, car le générateur continue de produire des données artificielles identiques aux données réelles - et le discriminateur détecte en permanence les données réelles et irréelles. Dans un scénario où il est nécessaire de créer une bibliothèque d'images, le réseau Generator produirait des données simulées pour les images authentiques. Il générerait alors un réseau de neurones de déconvolution.

Il serait ensuite suivi d'un réseau de détecteurs d'images pour différencier les images réelles des fausses. A partir d'une chance de précision de 50% , le détecteur doit développer sa qualité de classification puisque le générateur se développerait mieux dans sa génération d'images artificielles. Une telle concurrence contribuerait globalement à l'efficacité et à la rapidité du réseau.

Fonctionne mieux dans :

  • Génération d'images et de textes
  • Amélioration d'images
  • Processus de découverte de nouveaux médicaments

5. Cartes auto-organisées

Les SOM ou cartes auto-organisatrices fonctionnent à l'aide de données non supervisées qui réduisent le nombre de variables aléatoires dans un modèle. Dans ce type de technique d'apprentissage en profondeur , la dimension de sortie est fixée comme un modèle bidimensionnel, chaque synapse se connectant à ses nœuds d'entrée et de sortie.

Au fur et à mesure que chaque point de données est en compétition pour sa représentation de modèle, le SOM met à jour le poids des nœuds les plus proches ou des unités de meilleure correspondance (BMU) . En fonction de la proximité d'un BMU, la valeur des poids change. Comme les poids sont considérés comme une caractéristique de nœud en soi, la valeur représente l'emplacement du nœud dans le réseau.

Fonctionne mieux dans :

  • Lorsque les jeux de données ne sont pas accompagnés de valeurs d'axe Y
  • Explorations de projets pour analyser le cadre de l'ensemble de données
  • Projets créatifs en musique, vidéos et texte avec l'aide de l'IA

6. Machines Boltzmann

Ce modèle de réseau n'a pas de direction prédéfinie et a donc ses nœuds connectés dans un arrangement circulaire. En raison de cette unicité, cette technique d'apprentissage en profondeur est utilisée pour produire des paramètres de modèle.

Différent de tous les modèles de réseau déterministes précédents, le modèle des machines de Boltzmann est appelé stochastique.

Fonctionne mieux dans :

  • Surveillance du système
  • Mise en place d'une plateforme de recommandation binaire
  • Analyser des ensembles de données spécifiques

Lire : Méthodes étape par étape pour créer votre propre système d'IA aujourd'hui

7. Apprentissage par renforcement en profondeur

Avant de comprendre la technique du Deep Reinforcement Learning, l'apprentissage par renforcement fait référence au processus par lequel un agent interagit avec un environnement pour modifier son état. L'agent peut observer et agir en conséquence, l'agent aide un réseau à atteindre son objectif en interagissant avec la situation.

Ici, dans ce modèle de réseau, il y a une couche d'entrée, une couche de sortie et plusieurs couches multiples cachées - où l'état de l'environnement est la couche d'entrée elle-même. Le modèle fonctionne sur les tentatives continues de prédire la récompense future de chaque action entreprise dans l'état donné de la situation.

Fonctionne mieux dans :

  • Jeux de société comme les échecs, le poker
  • Voitures sans chauffeur
  • Robotique
  • Gestion de l'inventaire
  • Tâches financières telles que la tarification des actifs

8. Auto-encodeurs

L'un des types de techniques d'apprentissage en profondeur les plus couramment utilisés , ce modèle fonctionne automatiquement en fonction de ses entrées, avant de prendre une fonction d'activation et un décodage de sortie final. Une telle formation de goulot d'étranglement conduit à produire des catégories de données moindres et à tirer parti de la plupart des structures de données inhérentes.

Les types d'auto-encodeurs sont :

  • Sparse - Où les couches cachées sont plus nombreuses que la couche d'entrée pour que l'approche de généralisation ait lieu afin de réduire le surajustement. Il limite la fonction de perte et empêche l'auto-encodeur de surutiliser tous ses nœuds.
  • Débruitage - Ici, une version modifiée des entrées est transformée en 0 au hasard.
  • Contractive - Ajout d'un facteur de pénalité à la fonction de perte pour limiter le surajustement et la copie de données, en cas de couche cachée plus nombreuse que la couche d'entrée.
  • Empilé - Pour un encodeur automatique, une fois qu'une autre couche cachée est ajoutée, cela conduit à deux étapes d'encodage à celle d'une phase de décodage.

Fonctionne mieux dans :

  • Détection de fonctionnalités
  • Mettre en place un modèle de recommandation convaincant
  • Ajouter des fonctionnalités à de grands ensembles de données

Lire : Régularisation dans le Deep Learning

9. Rétropropagation

Dans l'apprentissage en profondeur , la technique de rétropropagation ou de rétropropagation est appelée le mécanisme central permettant aux réseaux de neurones d'apprendre toute erreur dans la prédiction des données. La propagation, quant à elle, fait référence à la transmission de données dans une direction donnée via un canal dédié. L'ensemble du système peut fonctionner en fonction de la propagation du signal dans le sens direct au moment de la décision, et renvoie toutes les données concernant les lacunes du réseau, en sens inverse.

  • Premièrement, le réseau analyse les paramètres et décide des données
  • Deuxièmement, il est pondéré avec une fonction de perte
  • Troisièmement, l'erreur identifiée est rétropropagée pour ajuster automatiquement tous les paramètres incorrects

Fonctionne mieux dans :

  • Débogage des données

10. Descente en dégradé

Dans le contexte mathématique, le gradient fait référence à une pente qui a un angle mesurable et peut être représentée dans une relation entre des variables. Dans cette technique d'apprentissage en profondeur , la relation entre l'erreur produite dans le réseau de neurones et celle des paramètres de données peut être représentée par "x" et "y". Étant donné que les variables sont dynamiques dans un réseau de neurones, l'erreur peut donc être augmentée ou diminuée avec de petits changements.

De nombreux professionnels visualisent la technique comme celle d'un sentier fluvial descendant les pentes de la montagne. L'objectif d'une telle méthode est — de trouver la solution optimale. Puisqu'il existe plusieurs solutions minimales locales dans un réseau de neurones, dans lesquelles les données peuvent être piégées et conduire à des compilations plus lentes et incorrectes, il existe des moyens de s'abstenir de tels événements.

En tant que terrain de la montagne, il existe des fonctions particulières dans le réseau de neurones appelées fonctions convexes, qui permettent aux données de circuler aux débits attendus et d'atteindre leur minimum le plus élevé. Il peut y avoir des différences dans les méthodes prises par les données entrant dans la destination finale en raison de la variation des valeurs initiales de la fonction.

Fonctionne mieux dans :

  • Mise à jour des paramètres dans un modèle donné

Lisez aussi: 15 idées de projets d'apprentissage automatique intéressantes pour les débutants

Emballer

Il existe plusieurs techniques d'apprentissage en profondeur qui viennent avec ses fonctionnalités et son approche pratique. Une fois ces modèles identifiés et placés dans les bons scénarios, cela peut conduire à la réalisation de solutions haut de gamme basées sur le framework utilisé par les développeurs. Bonne chance!

Découvrez le programme de certification avancée en apprentissage automatique et cloud avec IIT Madras, la meilleure école d'ingénieurs du pays, pour créer un programme qui vous enseigne non seulement l'apprentissage automatique, mais également son déploiement efficace à l'aide de l'infrastructure cloud. Notre objectif avec ce programme est d'ouvrir les portes de l'institut le plus sélectif du pays et de donner aux apprenants l'accès à des professeurs et à des ressources incroyables afin de maîtriser une compétence en forte croissance.

Que sont les réseaux antagonistes généraux ?

Il s'agit d'un hybride de deux techniques de réseau neuronal d'apprentissage en profondeur : les générateurs et les discriminateurs. Alors que le réseau de générateurs génère des données fictives, le discriminateur aide à faire la distinction entre les données réelles et fictives. Étant donné que le générateur continue de produire de fausses données identiques aux données authentiques - et que le discriminateur continue de reconnaître les données réelles et irréelles - les deux réseaux sont compétitifs. Le réseau Generator générera des résultats de simulation sur les photographies authentiques dans le cas où une bibliothèque d'images est requise. Après cela, cela créerait un réseau de neurones de déconvolution.

A quoi servent les cartes auto-organisées ?

Les SOM, ou cartes auto-organisées, fonctionnent en réduisant le nombre de variables aléatoires dans un modèle en utilisant des données non supervisées. Au fur et à mesure que chaque neurone se connecte à ses nœuds d'entrée et de sortie, la dimensionnalité du résultat est définie comme un modèle bidimensionnel dans ce type de technique d'apprentissage en profondeur. Le SOM ajuste la valeur des nœuds les plus proches ou des meilleures unités correspondantes, car chaque point de données enchérit pour sa représentation de modèle (BMU). La valeur des poids varie en fonction de la proximité d'un BMU. Étant donné que les poids sont considérés comme des caractéristiques de nœud en soi, la valeur indique la position du nœud dans le réseau.

Qu'est-ce que la rétropropagation ?

L'algorithme de propagation arrière ou l'approche back-prop est l'exigence importante pour que les réseaux de neurones apprennent tout échec de la prédiction des données dans l'apprentissage en profondeur. D'autre part, la propagation fait référence au transfert de données dans une direction spécifique sur un canal défini. Au moment du choix, le système complet peut fonctionner selon la propagation du signal dans le sens direct, et renvoie toutes les données concernant les défauts du réseau dans le sens inverse.