考试报名
考试报名
考试内容
考试大纲
在线客服
返回顶部

备考刷题,请到

CDA认证小程序

判断决策树模型的好坏我们会使用信息熵或基尼系数对节点进行不纯度的度量。在当前的模型中,我们可以看出( )。
A. 第一次划分后,x1
B. 第一次划分后,x1
C. 第一次划分后,x1>w10时是最纯的状态,不需要继续划分。
D. 第二次划分后,x2
上一题
下一题
收藏
点赞
评论
题目解析
题目评论(0)

考点:考核对信息熵的基础理解

在判断决策树模型节点的好坏时,我们确实会使用信息熵或基尼系数等不纯度度量来评估。通过这些度量,我们能够判断节点中的样本是否已经达到较为纯净的状态,从而决定是否需要继续划分。

在给出的选项中,我们需要根据不纯度度量(如信息熵或基尼系数)来判断哪个选项代表了最纯的状态。

1. **信息熵**定义为:
\[
\text{Entropy}(S) = -\sum_{i=1}^{c} p_i \log_2 p_i
\]
其中 \( p_i \) 是类 \( i \) 的概率,\( c \) 是类别数量。信息熵越小,样本越纯。

2. **基尼系数**定义为:
\[
\text{Gini}(S) = 1 - \sum_{i=1}^{c} p_i^2
\]
基尼系数越小,样本越纯。

选择题的判断标准是找到在某个划分后,样本达到最大纯净状态的选项,即信息熵或基尼系数最低的选项。

- **选项 A** 和 **选项 D** 提到“还需要继续划分”,这意味着在这些情况下,节点不够纯。

- **选项 B** 和 **选项 C** 都声明“不需要继续划分”,表示在这些情况下,节点已经相对纯净。

要确定是 **选项 B** 还是 **选项 C** 是正确答案,我们需要考察具体划分后不纯度变化的数据。然而,这里没有提供具体的数据或不纯度计算结果。

在假设没有额外数据的情况下,我们通常根据问题描述和选择中可能的逻辑关系做出合理的假设:

- 如果 **x1w10** 是可能的初始划分,通常视情况而定哪个划分更纯。

在这种抽象的问题中,假设第一个划分 x1
**正确答案:B:第一次划分后,x1
请注意,真实的分析通常需要具体的数值来做出精确判断。