您应该知道的人工智能算法类型 [完整指南]
已发表: 2019-11-13人工智能已经发展到对世界产生重大影响。 随着不同应用程序和来源生成大量数据,机器学习系统可以从测试数据中学习并执行智能任务。
人工智能是计算机科学领域,涉及赋予机器决策能力和思考能力。 因此,人工智能是计算机科学、数据分析和纯数学的混合体。
机器学习成为人工智能不可或缺的一部分,它只处理第一部分,即从输入数据中学习的过程。 人工智能及其好处从未停止让我们惊叹。
加入来自世界顶级大学的在线AI 课程——硕士、高级管理人员研究生课程和 ML 和 AI 高级证书课程,以加快您的职业生涯。
目录
人工智能算法的类型
人工智能算法大致可以分为:
1.分类算法
分类算法是监督学习的一部分。 这些算法用于将对象变量划分为不同的类,然后预测给定输入的类。 例如,分类算法可用于将电子邮件分类为垃圾邮件。 让我们讨论一些常用的分类算法。

a) 朴素贝叶斯
与其他分类算法不同,朴素贝叶斯算法基于贝叶斯定理并采用概率方法。 该算法对每个类都有一组先验概率。 一旦输入数据,算法就会更新这些概率以形成称为后验概率的东西。 当您需要预测输入是否属于给定的类列表时,这很有用。
b) 决策树
决策树算法更像是一个流程图,类似于一种算法,其中节点表示对输入属性的测试,分支表示测试的结果。
c) 随机森林
随机森林就像一组树。 输入数据集被细分并馈送到不同的决策树中。 考虑所有决策树的输出平均值。 与决策树算法相比,随机森林提供了更准确的分类器。
d) 支持向量机
SVM 是一种使用超平面对数据进行分类的算法,确保超平面和支持向量之间的距离最大。
e) K 最近邻
KNN算法使用一堆分类的数据点来预测新样本数据点的类别。 它被称为“惰性学习算法”,因为它与其他算法相比相对较短。
2.回归算法
回归算法是监督机器学习算法下的一种流行算法。 回归算法可以根据输入到学习系统中的输入数据点来预测输出值。 回归算法的主要应用包括预测股市价格、预测天气等。本节下最常见的算法有
a) 线性回归
它用于通过考虑一致变量来衡量真正的品质。 它是所有回归算法中最简单的,但只能在线性关系或线性可分问题的情况下实现。 该算法在数据点之间绘制一条直线,称为最佳拟合线或回归线,用于预测新值。
阅读:线性回归——机器学习面试问题和答案
b) 套索回归
Lasso 回归算法通过获取最小化响应变量的预测误差的预测变量子集来工作。 这是通过对数据点施加约束并允许其中一些缩小到零值来实现的。
c) 逻辑回归
逻辑回归主要用于二元分类。 此方法允许您分析一组变量并预测分类结果。 其主要应用包括预测客户终身价值、房屋价值等

d) 多元回归
当有多个预测变量时,必须使用此算法。 该算法广泛用于零售行业的产品推荐引擎,客户偏好的产品将取决于品牌、质量、价格、评论等多种因素。
e) 多重回归算法
多元回归算法使用线性回归和非线性回归算法的组合,将多个解释变量作为输入。 主要应用包括社会科学研究、保险理赔真实性、行为分析等。
3. 聚类算法
聚类是根据组成员内的相似性将数据点划分和组织成组的过程。 这是无监督学习的一部分。 主要目的是对相似的项目进行分组。 例如,它可以根据交易中的某些属性将所有具有欺诈性质的交易安排在一起。 以下是最常见的聚类算法。
a) K-Means 聚类
它是最简单的无监督学习算法。 该算法将相似的数据点收集在一起,然后将它们绑定到一个集群中。 聚类是通过计算一组数据点的质心,然后评估每个数据点与聚类质心的距离来完成的。 然后根据距离,将分析的数据点分配给最近的集群。 K-means 中的“K”代表数据点被分组到的簇的数量。

b) 模糊 C 均值算法
FCM算法适用于概率。 每个数据点被认为具有属于另一个集群的概率。 数据点在特定集群上没有绝对的成员资格,这就是该算法被称为模糊的原因。
c) 期望最大化(EM)算法
它基于我们在统计学中学到的高斯分布。 数据被描绘成一个高斯分布模型来解决这个问题。 分配概率后,根据期望和最大化方程计算点样本。
d) 层次聚类算法
这些算法在学习数据点并进行相似性观察后对集群进行层次排序。 它可以有两种类型
- 分裂聚类,用于自上而下的方法
- 凝聚聚类,用于自下而上的方法
让我们结束并总结
人工智能曾多次震惊世界,并在现实世界中有大量应用来解决其复杂的问题。 我们希望这篇文章对各种人工智能算法及其广泛的分类有所了解。 算法是根据需要和我们拥有的数据点的性质来选择的。
算法在准确性、性能和处理时间方面各有优缺点。 这些只是一些算法。 如果您想了解更多信息,请查看 upGrad 和 IIIT-B 的机器学习和 AI 执行 PG 计划。
什么是朴素贝叶斯?
贝叶斯定理用于朴素贝叶斯算法,与此列表中的其他算法不同,该算法采用概率方法。 这仅仅意味着该方法为您的目标的每个分类建立了一组先验概率,而不是直接跳入数据。 当您输入数据时,该算法会更改这些先验概率以生成后验概率。 因此,当您需要预测您的输入是否对应于 n 个类中的一个或它们都不对应时,这将非常有用。 这使用概率技术是可行的,因为所有 n 个类别的概率都非常低。
什么是决策树?
决策树只是一个类似流程图的树结构,其中每个外部节点代表一个属性的试验,每个分支表示测试的结果。 预期的标签存储在叶节点中。 我们从树的根开始,通过比较属性值来找到叶子节点。 当处理高维数据并且花费很少的时间准备数据时,我们使用了这个分类器。 然而,请注意:它们容易过度拟合,即使训练数据的变化很小,也可能会发生巨大变化。
什么是支持向量机?
在尝试对数据点进行排序时,尽可能宽的两个类之间的边距,SVM 是独一无二的。 这称为最大边距间隔。 要记住的另一点是,与线性回归不同,SVM 仅使用支持向量绘制超平面,而线性回归使用完整数据集。 SVM 在数据具有很多维度的情况下特别有用。 因此,您首先生成一个随机超平面,然后测量它与每个类中最近的数据值之间的距离。 支持向量是离超平面最近的数据点。