考试报名
考试报名
考试内容
考试大纲
在线客服
返回顶部

备考刷题,请到

CDA认证小程序

一般,K-NN最近邻算法在( )情况下效果较好?
A. 样本较多但典型性不好
B. 样本较少但典型性好
C. 样本呈团状分布
D. 样本呈链状分布
上一题
下一题
收藏
点赞
评论
题目解析
题目评论(0)

:样本呈团状颇有迷惑性,这里应该指的是整个样本都是呈团状分布的,这样 K-NN就发挥不出其求近邻的优势了。而整体样本应该具有典型性好,样本较少,才比较适宜。

K-NN(K-Nearest Neighbors,K最近邻)算法的效果在某些情况下表现得更加出色。对于给出的选项,正确答案是:

**C: 样本呈团状分布**

### 专业分析

K-NN算法的效果依赖于样本数据的分布特性。其背后的核心思想是基于“相似的样本具有相似的标签”这一假设。以下是对四个选项的分析:

- **A: 样本较多但典型性不好**
- 当样本的典型性不佳时,样本之间的相似性度量(例如欧几里得距离)可能无法有效区分不同类别,导致效果不佳。

- **B: 样本较少但典型性好**
- 样本较少时,K-NN可能无法充分捕捉数据分布的全貌,从而影响预测的准确性。此外,样本量少会使得K值的选择变得敏感。

- **C: 样本呈团状分布**
- 样本呈团状分布(即同类样本在特征空间中聚集成簇),这是K-NN算法最适合的场景。因为K-NN是基于距离度量来判断样本的类别,当样本聚成团时,相同类别的样本之间的距离较小,容易正确分类。

- **D: 样本呈链状分布**
- 样本呈链状分布意味着样本不是集中在一起的,而是沿着某个模式分布,可能导致近邻样本来自不同类别,从而影响分类效果。

因此,K-NN在样本呈团状分布的情况下,能够更好地利用样本间的相似性来进行准确分类,是比较理想的选择。