第一篇:K-近邻分类算法原理分析与代码实现

时间:2022-11-16 23:22:08

前言

本文介绍机器学习分类算法中的K-近邻算法并给出伪代码与Python代码实现。

算法原理

首先获取训练集中与目标对象距离最近的k个对象,然后再获取这k个对象的分类标签,求出其中出现频数最大的标签。

而这个标签,就是分类的结果。

伪代码

对训练集做以下操作:

1. 计算训练集中各点与当前点之间的距离(本文采用最经典的欧式距离)

2. 按照距离递增次序对各点排序

3. 选取与当前点距离最小的k个点

4. 确定前k个点所在类别的出现频率

5. 返回前k个点出现频率最高的类别,即为分类结果。

特别说明:该算法中,因为没有训练步骤,因此对它而言训练集也就是数据集。

代码示例

 #!/usr/bin/env python
 # -*- coding:UTF-8 -*-

 '''
 Created on 2016-12-05

 @author: fangmeng
 '''

 # 导入numpy数学运算库
 import numpy
 # 导入运算符函数库
 import operator

 # ==============================================
 # 输入:
 #        空
 # 输出:
 #        group, labels:样本训练集及其对应标签集
 # ==============================================
 def createDataSet():
     '创建训练集及其对应标签集并返回'

     group = numpy.array([[1.0, 1.1], [1.0, 1.0], [0.0, 0.0], [0.0, 0.1]])
     labels = ['A', 'A', 'B', 'B']

     return group, labels

 # ==============================================
 # 输入:
 #        inX:目标向量
 #        dataSet:训练集
 #        labels:训练集对应的标签集
 #        k:算法参数
 # 输出:
 #        sortedClassCount[0][0]:目标向量的分类结果
 # ==============================================
 def classify0 (inX, dataSet, labels, k):
     'kNN 分类器'

     #计算目标向量与训练集中所有对象的距离并排序
     dataSetSize = dataSet.shape[0]
     diffMat = numpy.tile(inX, (dataSetSize, 1)) - dataSet
     sqDiffMat = diffMat ** 2
     sqDistances = sqDiffMat.sum(axis=1)
     distances = sqDistances ** 0.5
     sortedDistIndicies = distances.argsort()  # 返回数组从小到大的索引值

     # 取出与目标向量距离最近的三个
     classCount = {}         # 该字典存放各种标签及其对应的频数
     for i in range(k):      # 由前 k 位索引的结果构建字典
         voteIlable = labels[sortedDistIndicies[i]]
         classCount[voteIlable] = classCount.get(voteIlable, 0)+1

     # 以各个标签的频率为基准进行排序
     sortedClassCount = sorted(classCount.iteritems(), key=operator.itemgetter(1), reverse=True)

     return sortedClassCount[0][0]   # 返回出现频率最高的标签

 def test():
     '分类器测试函数'

     # 新建训练集及其对应标签集
     group, labels = createDataSet()

     # 输入目标向量并返回分类结果后打印
     label = classify0([0.0, 0.0], group, labels, 3)
     print label

 if __name__ == '__main__':
     # 调用测试函数
     test()

运行结果

第一篇:K-近邻分类算法原理分析与代码实现

小结

1. 本文简要介绍了机器学习中经典的K-近邻算法,并给出了代码实现。

2. 该算法的缺点有三个:

a. 耗费空间资源大:要保存整个数据集

b. 耗费时间资源大:要对数据集中的每个样本求距离。当样本很多,或者特征信息多的时候,效率是挺坑的。

c. 没有给出数据的基础结构信息。(本身K-近邻算法就没有严格意义上的训练过程)

3. 后面的文章中,将讲解如何将此算法应用于具体项目中。