人工智能中的决策树:介绍、类型和创建

已发表: 2020-09-03

决策树是决策过程的外延表示。 人工智能中的决策树用于根据过去决策中的可用数据得出结论。 此外,这些结论被赋予了价值,用于预测未来可能采取的行动过程。

决策树是机器学习的统计算法模型,可以解释和学习各种问题的响应及其可能的后果。 因此,决策树根据可用数据了解特定上下文中的决策规则。 学习过程是连续的,并且基于反馈。 随着时间的推移,这会改善学习的结果。 这种学习称为监督学习。 因此,决策树模型是监督学习的支持工具。

因此,决策树提供了基于事实和价值而非直觉的科学决策过程。 在业务中,组织使用此流程来做出重要的业务决策。

学习世界顶尖大学的AI 和 ML 课程获得硕士、Executive PGP 或高级证书课程以加快您的职业生涯。

目录

决策树模型的类型

根据需要预测的数据类型,这些模型可用于解决问题。 它们分为以下几类:

  1. 连续变量的预测
  2. 分类变量的预测

1. 连续变量的预测

连续变量的预测取决于一个或多个预测变量。 例如,一个地区的房屋价格可能取决于许多变量,例如地址、游泳池等便利设施的可用性、房间数量等。在这种情况下,决策树将根据各种变量来预测房屋的价格价值观。 预测值也将是一个变量值。

用于表示这些值的决策树模型称为连续变量决策树。 连续的各种决策树解决回归类型的问题。 在这种情况下,标记数据集用于预测连续、可变和编号的输出。

必读:如何创建完美的决策树

2. 分类变量的预测

分类变量的预测也基于其他分类或连续变量。 然而,这个问题不是预测一个值,而是关于将一​​个新的数据集分类到可用的数据集类中。 例如,分析 Facebook 上的评论以将文本分类为负面或支持。 根据患者的症状进行疾病诊断也是分类变量决策树模型的一个示例。 分类变量决策树解决了输出是类而不是值的分类类型问题。

签出: R中的决策树

人工智能中的决策树是如何创建的

顾名思义,决策树算法是树状结构的形式。 然而,它是颠倒的。 决策树从根节点或顶部决策节点开始,根据精心选择的属性值对数据集进行分类。

根节点代表整个数据集。 这是算法的第一步选择最佳预测变量的地方。 它使它成为一个决策节点。 它还将整个数据集分类为各种类别或较小的数据集。

用于选择属性的一组标准称为属性选择措施 (ASM)。 ASM 基于选择度量,包括信息增益、熵、基尼指数、增益比等。 这些属性,也称为特征,创建有助于分支的决策规则。 分支过程将根节点拆分为子节点,进一步拆分为更多的子节点,直到形成叶节点。 叶节点不能进一步划分。

确定给定图片是猫还是狗是分类的典型示例。 在这里,特征或属性可能是爪子或爪子的存在、耳朵的长度、舌头的类型等。数据集将根据这些输入变量进一步分成更小的类,直到获得结果。

另请阅读:决策树中的分类

结论

决策树是经典的自然学习模型。 它们基于分而治之的基本概念。 在人工智能的世界里,决策树被用来开发学习机器,教它们如何确定成功和失败。 这些学习机器然后分析传入的数据并存储它。

然后,他们根据过去的学习经验做出无数决定。 这些决策构成了预测建模的基础,有助于预测问题的结果。 在商业中,组织使用这些技术来做出无数的小型和大型商业决策,从而导致巨大的收益或损失。

查看 upGrad 的机器学习和 NLP 高级证书课程。 本课程的设计考虑到对机器学习感兴趣的各种学生,提供 1-1 指导等等。

什么是 AI 中的决策树模型?

决策树已经存在了很长时间,但最近在机器学习和数据科学界越来越受到重视。 决策树是一种从数据中学习并帮助您根据一组特征预测对象类别的模型。 决策树是一个非循环图,其中每个节点代表对输入特征的测试,每个分支代表测试的结果。 通过向下遍历树,根节点包含对整棵树的预测

决策树有哪些应用?

这些模型用于多个领域。 在计算生物学中,它们通常用于预测蛋白质或 DNA 序列的生物学功能。 在流行病学中,它们用于确定受影响个体传播疾病的风险。 在数据挖掘中,它们用于根据以前的事件预测未来的事件。 在金融中,它们用于确定违约风险,在软件工程中,它们用于确定软件缺陷的优先​​级。

决策树算法面临哪些问题?

决策树模型的最大问题是,在许多情况下,即使可能状态(节点)的数量是无限的,例如在未知 BLEU 分数的情况下,也不会枚举所有可能的树。 众所周知,决策树是一种机器学习算法。 它是一个二叉决策树。 一棵树,其中每个内部节点代表对变量的测试,每个叶节点代表一个类标签。 决策树必须对特定的数据元组做出决策。 在对连续变量做出决策时,这种表示不是很好。 此外,它对处理可以编码为分类变量的数据也有限制。