决策树模型的说法中,选项 **D** 是错误的。
### 分析:
- **A: 决策树由结点(node)和有向边(directed edge)组成**
- 正确。决策树确实是由节点和有向边组成的。节点代表属性测试或决策结果,而有向边表示从一个节点到下一个节点的路径选择。
- **B: 决策树中的数包含三种结点:根结点(root node)、内部结点(internal node)、叶结点(leaf node)**
- 正确。决策树确实包含这三种节点类型:
- 根结点:树的起始节点。
- 内部结点:用于决策属性测试的节点。
- 叶结点:表示决策结果的终端节点。
- **C: 决策树是一种实现分治策略的层次数据结构**
- 正确。决策树通过递归地将数据集划分成更小的子集来实现分治策略,每个划分由决策树中的节点表示。
- **D: 决策树和聚类算法一样,都是无监督学习模型**
- 错误。决策树是一种**监督学习**模型,通常用于分类和回归任务,需要带标签的数据进行训练。而聚类算法(如K均值)是**无监督学习**,用于根据数据内在结构将数据集划分为不同的组或簇。
因此,具有错误说法的选项是 D。