考试报名
考试报名
考试内容
考试大纲
在线客服
返回顶部

备考刷题,请到

CDA认证小程序

关于决策树正确的是()。(多选)
A. 使用的信息墒来衡量节点的不纯度
B. 使用可以降低不纯度最多的特征来做节点的划分
C. 信息墒的公式是-sum(pi * log(pi))
D. 信息墒的公式是sum(pi * log(pi))
上一题
下一题
收藏
点赞
评论
题目解析
题目评论(0)

决策树是一种重要的机器学习算法,用于分类和回归任务。在决策树中,节点的不纯度是一个重要的概念,用于衡量一个节点中数据分类的混乱程度。信息熵是衡量不纯度的常用指标之一。以下是对各选项的分析:

- **A: 使用的信息墒来衡量节点的不纯度**
- 这是正确的。信息熵(Entropy)是一种常用的方法来衡量节点的不纯度。信息熵越高,节点的不纯度越高。

- **B: 使用可以降低不纯度最多的特征来做节点的划分**
- 这是正确的。决策树算法选择分裂节点时,会选择能够最大程度降低不纯度的特征。这通常通过信息增益、信息增益率或基尼不纯度等指标来实现。

- **C: 信息墒的公式是-sum(pi * log(pi))**
- 这是正确的。信息熵的公式为 \( -\sum (p_i \times \log(p_i)) \),其中 \( p_i \) 是类别 \( i \) 的概率。

- **D: 信息墒的公式是sum(pi * log(pi))**
- 这是错误的。这个公式缺少负号。正确的公式是带有负号的,即 \( -\sum (p_i \times \log(p_i)) \)。

### 综合以上分析,正确答案为:A、B、C。