Types d'algorithmes d'intelligence artificielle que vous devez connaître [Un guide complet]
Publié: 2019-11-13L'intelligence artificielle a grandi pour avoir un impact significatif sur le monde. Avec de grandes quantités de données générées par différentes applications et sources, les systèmes d'apprentissage automatique peuvent apprendre des données de test et effectuer des tâches intelligentes.
L'intelligence artificielle est le domaine de l'informatique qui consiste à conférer la capacité de décision et la capacité de penser aux machines. L'intelligence artificielle est donc un mélange d'informatique, d'analyse de données et de mathématiques pures.
L'apprentissage automatique devient une partie intégrante de l'intelligence artificielle et ne traite que de la première partie, le processus d'apprentissage à partir des données d'entrée. L'Intelligence Artificielle et ses bienfaits n'ont jamais cessé de nous étonner.
Rejoignez les cours d'IA en ligne des meilleures universités du monde - Masters, Executive Post Graduate Programs et Advanced Certificate Program in ML & AI pour accélérer votre carrière.
Table des matières
Types d'algorithmes d'intelligence artificielle
Les algorithmes d'intelligence artificielle peuvent être globalement classés comme suit :
1. Algorithmes de classification
Les algorithmes de classification font partie de l'apprentissage supervisé. Ces algorithmes sont utilisés pour diviser la variable soumise en différentes classes, puis prédire la classe pour une entrée donnée. Par exemple, des algorithmes de classification peuvent être utilisés pour classer les e-mails comme spam ou non. Discutons de certains des algorithmes de classification couramment utilisés.

a) Bayes naïf
L'algorithme Naive Bayes fonctionne sur le théorème de Bayes et adopte une approche probabiliste, contrairement aux autres algorithmes de classification. L'algorithme a un ensemble de probabilités a priori pour chaque classe. Une fois les données alimentées, l'algorithme met à jour ces probabilités pour former quelque chose appelé probabilité postérieure. Cela est utile lorsque vous devez prédire si l'entrée appartient à une liste de classes donnée ou non.
b) Arbre de décision
L'algorithme d'arbre de décision est plus un organigramme comme un algorithme où les nœuds représentent le test sur un attribut d'entrée et les branches représentent le résultat du test.
c) Forêt aléatoire
La forêt aléatoire fonctionne comme un groupe d'arbres. L'ensemble de données d'entrée est subdivisé et introduit dans différents arbres de décision. La moyenne des sorties de tous les arbres de décision est considérée. Les forêts aléatoires offrent un classificateur plus précis par rapport à l'algorithme d'arbre de décision.
d) Soutenir les machines vectorielles
SVM est un algorithme qui classe les données à l'aide d'un hyperplan, en s'assurant que la distance entre l'hyperplan et les vecteurs de support est maximale.
e) K voisins les plus proches
L'algorithme KNN utilise un ensemble de points de données séparés en classes pour prédire la classe d'un nouvel échantillon de points de données. Il est appelé "algorithme d'apprentissage paresseux" car il est relativement court par rapport aux autres algorithmes.
2. Algorithmes de régression
Les algorithmes de régression sont un algorithme populaire sous les algorithmes d'apprentissage automatique supervisé. Les algorithmes de régression peuvent prédire les valeurs de sortie en fonction des points de données d'entrée alimentés dans le système d'apprentissage. L'application principale des algorithmes de régression comprend la prévision du cours de la bourse, la prévision de la météo, etc. Les algorithmes les plus courants dans cette section sont
a) Régression linéaire
Il est utilisé pour mesurer les qualités authentiques en considérant les variables cohérentes. C'est le plus simple de tous les algorithmes de régression mais ne peut être implémenté que dans les cas de relation linéaire ou d'un problème linéairement séparable. L'algorithme trace une ligne droite entre les points de données appelée ligne de meilleur ajustement ou ligne de régression et est utilisée pour prédire de nouvelles valeurs.
Lire : Régression linéaire - Questions et réponses d'entrevue ML
b) Régression au lasso
L'algorithme de régression Lasso fonctionne en obtenant le sous-ensemble de prédicteurs qui minimise l'erreur de prédiction pour une variable de réponse. Ceci est réalisé en imposant une contrainte sur les points de données et en permettant à certains d'entre eux de se réduire à la valeur zéro.
c) Régression logistique
La régression logistique est principalement utilisée pour la classification binaire. Cette méthode vous permet d'analyser un ensemble de variables et de prédire un résultat catégoriel. Ses principales applications incluent la prédiction de la valeur à vie du client, les valeurs de la maison, etc.

d) Régression multivariée
Cet algorithme doit être utilisé lorsqu'il y a plus d'une variable prédictive. Cet algorithme est largement utilisé dans les moteurs de recommandation de produits du secteur de la vente au détail, où les produits préférés des clients dépendent de plusieurs facteurs tels que la marque, la qualité, le prix, l'avis, etc.
e) Algorithme de régression multiple
L'algorithme de régression multiple utilise une combinaison d'algorithmes de régression linéaire et de régression non linéaire prenant plusieurs variables explicatives comme entrées. Les principales applications incluent la recherche en sciences sociales, l'authenticité des réclamations d'assurance, l'analyse comportementale, etc.
3. Algorithmes de clustering
Le clustering est le processus de séparation et d'organisation des points de données en groupes en fonction des similitudes entre les membres du groupe. Cela fait partie de l'apprentissage non supervisé. L'objectif principal est de regrouper des éléments similaires. Par exemple, il peut organiser toutes les transactions de nature frauduleuse en fonction de certaines propriétés de la transaction. Vous trouverez ci-dessous les algorithmes de clustering les plus courants.
a) Regroupement K-Means
C'est l'algorithme d'apprentissage non supervisé le plus simple. L'algorithme rassemble des points de données similaires, puis les lie dans un cluster. Le regroupement est effectué en calculant le centre de gravité du groupe de points de données, puis en évaluant la distance de chaque point de données par rapport au centre de gravité du groupe. En fonction de la distance, le point de données analysé est ensuite attribué au cluster le plus proche. 'K' dans K-means représente le nombre de clusters dans lesquels les points de données sont regroupés.

b) Algorithme C-means flou
L'algorithme FCM fonctionne sur la probabilité. Chaque point de données est considéré comme ayant une probabilité d'appartenir à un autre cluster. Les points de données n'ont pas une appartenance absolue sur un cluster particulier, et c'est pourquoi l'algorithme est appelé flou.
c) Algorithme d'espérance-maximisation (EM)
Il est basé sur la distribution gaussienne que nous avons apprise en statistique. Les données sont représentées dans un modèle de distribution gaussien pour résoudre le problème. Après avoir attribué une probabilité, un échantillon ponctuel est calculé sur la base des équations d'espérance et de maximisation.
d) Algorithme de regroupement hiérarchique
Ces algorithmes trient l'ordre hiérarchique des clusters après avoir appris les points de données et effectué des observations de similarité. Il peut être de deux types
- Clustering divisionnaire, pour une approche descendante
- Le clustering agglomératif, pour une approche bottom-up
Finissons et concluons
L'IA a surpris le monde à plusieurs reprises et a de nombreuses applications dans le monde réel pour résoudre ses problèmes complexes. Nous espérons que cet article a fait la lumière sur les différents algorithmes d'intelligence artificielle et leurs grandes classifications. Les algorithmes sont choisis en fonction du besoin et de la nature des points de données dont nous disposons.
Les algorithmes ont leurs avantages et leurs inconvénients en termes de précision, de performances et de temps de traitement. Ce ne sont que quelques algorithmes. Si vous souhaitez en savoir plus, consultez le programme Executive PG de upGrad & IIIT-B en Machine Learning & AI .
Qu'est-ce que le baye naïf ?
Le théorème de Bayes est utilisé dans l'algorithme Naive Bayes, qui, contrairement aux autres algorithmes de cette liste, adopte une approche probabiliste. Cela signifie simplement que la méthode a un ensemble de probabilités a priori établies pour chacune des classifications de votre cible, plutôt que de sauter directement dans les données. L'algorithme modifie ces probabilités a priori pour générer la probabilité a posteriori lorsque vous introduisez les données. Par conséquent, cela peut être extrêmement bénéfique dans les situations où vous devez anticiper si votre entrée correspond à l'une des n classes ou à aucune d'entre elles. Ceci est faisable en utilisant une technique probabiliste car les probabilités lancées pour toutes les n classes seront assez faibles.
Qu'est-ce qu'un arbre de décision ?
L'arbre de décision est simplement une structure arborescente de type organigramme dans laquelle chaque nœud extérieur représente un essai sur un attribut et chaque branche indique le résultat du test. Les étiquettes attendues sont stockées dans les nœuds feuilles. Nous commençons à la racine de l'arbre et progressons jusqu'au nœud feuille en comparant les valeurs des attributs. Lorsque nous traitons des données de grande dimension et avec peu de temps consacré à la préparation des données, nous utilisons ce classificateur. Un mot d'avertissement, cependant : ils sont sujets au surajustement et peuvent varier considérablement même avec peu de changements dans les données d'entraînement.
Qu'est-ce qu'une machine à vecteurs de support ?
Dans la mesure où il tente de trier les points de données avec les marges entre deux classes aussi larges que possible, un SVM est unique. C'est ce qu'on appelle la marge de séparation maximale. Un autre point à garder à l'esprit est que, contrairement à la régression linéaire, les SVM tracent l'hyperplan en utilisant uniquement les vecteurs de support, tandis que la régression linéaire utilise l'ensemble de données complet. Les SVM sont particulièrement bénéfiques dans des circonstances où les données ont de nombreuses dimensions. Vous commencez donc par générer un hyperplan aléatoire, puis mesurez la distance entre celui-ci et les valeurs de données les plus proches de chaque classe. Les vecteurs de support sont les points de données les plus proches de l'hyperplan.