基尼不纯度:如何用它建立决策树?
为了有效地构建决策树,我们使用了熵/信息增益和基尼不纯度的概念。让我们看看什么是基尼不纯度,以及如何将其用于构建决策树吧。
- 作者:读芯术来源:今日头条|2021-01-12 18:40
本文转载自公众号“读芯术”(ID:AI_Discovery)。
决策树是机器学习中使用的最流行和功能最强大的分类算法之一。顾名思义,决策树用于根据给定的数据集做出决策。也就是说,它有助于选择适当的特征以将树分成类似于人类思维脉络的子部分。
为了有效地构建决策树,我们使用了熵/信息增益和基尼不纯度的概念。让我们看看什么是基尼不纯度,以及如何将其用于构建决策树吧。
什么是基尼不纯度?
基尼不纯度是决策树算法中用于确定根节点的最佳分割以及后续分割的方法。这是拆分决策树的最流行、最简单的方法。它仅适用于分类目标,因为它只执行二进制拆分。
基尼不纯度的公式如下:

基尼不纯度越低,节点的同质性越高。纯节点(相同类)的基尼不纯度为零。以一个数据集为例,计算基尼不纯度。
该数据集包含18个学生,8个男孩和10个女孩。根据表现将他们分类如下:

上述基尼不纯度的计算如下:

上述计算中,为了找到拆分(根节点)的加权基尼不纯度,我们使用了子节点中学生的概率。对于“高于平均值”和“低于平均值”节点,该概率仅为9/18,这是因为两个子节点的学生人数相等,即使每个节点中的男孩和女孩的数量根据其在课堂上的表现有所不同,结果亦是如此。
如下是使用基尼不纯度拆分决策树的步骤:
- 类似于在熵/信息增益的做法。对于每个拆分,分别计算每个子节点的基尼不纯度。
- 计算每个拆分的基尼不纯度作为子节点的加权平均基尼不纯度。
- 选择基尼不纯度值最低的分割。
- 重复步骤1-3,直到获得同类节点。
基尼不纯度小总结:
- 有助于找出根节点、中间节点和叶节点以开发决策树。
- 被CART(分类和回归树)算法用于分类树。
- 当节点中的所有情况都属于一个目标时,达到最小值(零)。
总而言之,基尼不纯度比熵/信息增益更受青睐,因为它公式简单且不使用计算量大而困难的对数。
【责任编辑:赵宁宁 TEL:(010)68476606】
点赞 0
- 大家都在看
- 猜你喜欢
编辑推荐
- 24H热文
- 一周话题
- 本月获赞
- 趋势科技:AI将在2030年替代网络安全人员如何利用统计软件Stata进行回归分析2019深度学习框架排行榜 (从TOP 10到TOP 3)2021年需要关注的4个自动化问题什么是人工智能芯片?人们需要知道的一切2021年:人工智能的普及之年机器人将垄断工作岗位,谁来保护我们的饭碗?哪些是人工智能时代的安全职业
- 2019深度学习框架排行榜 (从TOP 10到TOP 3)人工智能的12个不为人知的秘密什么是人工智能芯片?人们需要知道的一切如何成为一名机器学习工程师“人脸识别”和“指纹解锁”哪个更安全?不少人搞错了趋势科技:AI将在2030年替代网络安全人员20分钟,这个AI就能创造复杂艺术作品!1080显卡就能跑趋势科技:到2030年人工智能将在网络安全领域取代人类
- 2019深度学习框架排行榜 (从TOP 10到TOP 3)神经网络训练中,傻傻分不清Epoch、Batch Size和迭代分享 | 人工智能的12个典型案例人工智能的8个有用的日常例子关于人工智能的十二条名人名言人工智能的12个不为人知的秘密AI在医学影像技术应用方面的四大核心价值用10行Python代码进行图像识别
订阅专栏+更多
-
数据湖与数据仓库的分析实践攻略
助力现代化数据管理:数据湖与数据仓库的分析实践攻略共3章 | 创世达人1人订阅学习
-
云原生架构实践
新技术引领移动互联网进入急速赛道共3章 | KaliArch30人订阅学习
-
数据中心和VPDN网络建设案例
漫画+案例共20章 | 捷哥CCIE209人订阅学习
视频课程+更多
-
清华编程高手尹成带你基于算法实践java
讲师:尹成8886人学习过
-
2020年实践哥Beat+ELK7.6+Grafana运维日志分
讲师:实践哥3657人学习过
-
Vue3+typescript实战博客网站
讲师:米斯特吴1111人学习过
专题推荐+更多
-
订阅51CTO邮刊
点击这里查看样刊

51CTO服务号

51CTO官微