下面是一个简单的Python实现k最近邻分类算法的示例:
import numpy as np
from collections import Counter
# 计算欧氏距离
def euclidean_distance(x1, x2):
return np.sqrt(np.sum((x1 - x2) ** 2))
class KNN:
def __init__(self, k=3):
self.k = k
def fit(self, X, y):
self.X_train = X
self.y_train = y
def predict(self, X):
y_pred = [self._predict(x) for x in X]
return np.array(y_pred)
def _predict(self, x):
# 计算所有训练样本与输入样本的距离
distances = [euclidean_distance(x, x_train) for x_train in self.X_train]
# 按距离排序,并获取最近的k个样本的索引
k_indices = np.argsort(distances)[:self.k]
# 获取这k个样本的标签
k_nearest_labels = [self.y_train[i] for i in k_indices]
# 返回众数作为预测结果
most_common = Counter(k_nearest_labels).most_common(1)
return most_common[0][0]
使用示例:
# 定义训练数据
X_train = np.array([[1, 2], [1.5, 1.8], [5, 8], [8, 8], [1, 0.6], [9, 11]])
y_train = np.array(['red', 'red', 'blue', 'blue', 'red', 'blue'])
# 创建KNN模型,设置k=3
knn = KNN(k=3)
# 训练模型
knn.fit(X_train, y_train)
# 定义测试数据
X_test = np.array([[2, 2], [6, 9], [1, 1], [10, 10]])
# 预测测试数据的标签
y_pred = knn.predict(X_test)
# 打印预测结果
print(y_pred) # 输出 ['red' 'blue' 'red' 'blue']
这个示例中使用的是欧氏距离进行距离度量,可以根据需要修改为其他距离度量方式。同时,可以根据实际情况调整k值来获取更好的分类结果。