三沙市网站建设_网站建设公司_HTTPS_seo优化
2026/1/6 17:53:49 网站建设 项目流程

原文:towardsdatascience.com/k-nearest-neighbor-regressor-explained-a-visual-guide-with-code-examples-df5052c8c889?source=collection_archive---------1-----------------------#2024-10-07

回归算法

使用 KD 树和 Ball 树快速寻找邻居

https://medium.com/@samybaladram?source=post_page---byline--df5052c8c889--------------------------------https://towardsdatascience.com/?source=post_page---byline--df5052c8c889-------------------------------- Samy Baladram

·发表于 Towards Data Science ·阅读时间 11 分钟·2024 年 10 月 7 日

## K 近邻分类器,解释:带代码示例的初学者视觉指南

机器学习中的友好邻居方法

[towardsdatascience.com

在我们探讨了最近邻分类器后,让我们转向回归领域中的“兄弟”——最近邻回归器。最近邻回归器将相同的直观概念应用于预测连续值。但是,随着数据集的增大,如何高效地找到这些邻居变得非常麻烦。这就是 KD 树和 Ball 树派上用场的地方。

令人沮丧的是,目前没有明确的指南能够真正解释这些算法的运作原理。当然,有一些二维可视化图像,但它们通常无法清楚地展示树在多维环境中的工作方式。

在这里,我们将解释这些算法实际是如何运作的,而不使用过于简化的二维表示。我们将专注于树的构建过程,并看看哪些计算(和数字)实际上是重要的。

https://github.com/OpenDocCN/towardsdatascience-blog-zh-2024/raw/master/docs/img/00c7b6d82e926d5ce08ebc77977eab63.png

所有可视化:作者使用 Canva Pro 创建,针对移动设备进行了优化;在桌面上可能显示过大。

定义

最近邻回归器是一个直接的预测模型,通过平均附近数据点的结果来估算值。该方法基于相似输入可能产生相似输出的理念。

https://github.com/OpenDocCN/towardsdatascience-blog-zh-2024/raw/master/docs/img/aba12c7b4e3b510a0d187544f9510e12.png

最近邻方法是机器学习工具包中最基础且强大的技术之一。它们的简单性掩盖了它们在许多实际场景中的有效性。

📊 使用的数据集

为了说明我们的概念,我们将使用我们通常的数据集。这个数据集有助于预测每天的高尔夫球手数量。它包括天气状况、温度、湿度和风速等因素。我们的目标是基于这些变量估算每日高尔夫球手的到场人数。

https://github.com/OpenDocCN/towardsdatascience-blog-zh-2024/raw/master/docs/img/8f70777fcdcfbe631c352c17a649d816.png

列:‘Outlook’(天气状况),‘Temperature’(温度,单位华氏度),‘Humidity’(湿度,单位%),‘Wind’(风速,是否有风),以及‘Number of Players’(玩家数量,数值型,目标特征)

为了有效地使用最近邻回归,我们需要对数据进行预处理。这包括将分类变量转换为数值格式和缩放数值特征。

https://github.com/OpenDocCN/towardsdatascience-blog-zh-2024/raw/master/docs/img/856bb5024939a0acbe57928f62346faa.png

对‘Temperature’(温度)和‘Humidity’(湿度)应用标准缩放,而对‘Outlook’(天气状况)和‘Wind’(风速)应用独热编码。

# Import librariesimportpandasaspdimportnumpyasnpfromsklearn.model_selectionimporttrain_test_splitfromsklearn.metricsimportroot_mean_squared_errorfromsklearn.neighborsimportKNeighborsRegressorfromsklearn.preprocessingimportStandardScalerfromsklearn.composeimportColumnTransformer# Create datasetdataset_dict={'Outlook':['sunny','sunny','overcast','rain','rain','rain','overcast','sunny','sunny','rain','sunny','overcast','overcast','rain','sunny','overcast','rain','sunny','sunny','rain','overcast','rain','sunny','overcast','sunny','overcast','rain','overcast'],'Temperature':[85.0,80.0,83.0,70.0,68.0,65.0,64.0,72.0,69.0,75.0,75.0,72.0,81.0,71.0,81.0,74.0,76.0,78.0,82.0,67.0,85.0,73.0,88.0,77.0,79.0,80.0,66.0,84.0],'Humidity':[85.0,90.0,78.0,96.0,80.0,70.0,65.0,95.0,70.0,80.0,70.0,90.0,75.0,80.0,88.0,92.0,85.0,75.0,92.0,90.0,85.0,88.0,65.0,70.0,60.0,95.0,70.0,78.0],'Wind':[False,True,False,False,False,True,True,False,False,False,True,True,False,True,True,False,False,True,False,True,True,False,True,False,False,True,False,False],'Num_Players':[52,39,43,37,28,19,43,47,56,33,49,23,42,13,33,29,25,51,41,14,34,29,49,36,57,21,23,41]}df=pd.DataFrame(dataset_dict)# One-hot encode 'Outlook' columndf=pd.get_dummies(df,columns=['Outlook'])# Convert 'Wind' column to binarydf['Wind']=df['Wind'].astype(int)# Split data into features and target, then into training and test setsX,y=df.drop(columns='Num_Players'),df['Num_Players']X_train,X_test,y_train,y_test=train_test_split(X,y,train_size=0.5,shuffle=False)# Identify numerical columnsnumerical_columns=['Temperature','Humidity']# Create a ColumnTransformer to scale only numerical columnsct=ColumnTransformer([('scaler',StandardScaler(),numerical_columns)],remainder='passthrough')# Fit the ColumnTransformer on the training data and transform both training and test dataX_train_transformed=ct.fit_transform(X_train)X_test_transformed=ct.transform(X_test)# Convert the transformed data back to DataFramesfeature_names=numerical_columns+[colforcolinX_train.columnsifcolnotinnumerical_columns]X_train_scaled=pd.DataFrame(X_train_transformed,columns=feature_names,index=X_train.index)X_test_scaled=pd.DataFrame(X_test_transformed,columns=feature_names,index=X_test.index)

主要机制

最近邻回归器的工作原理类似于其分类器对等物,但它不是对类别进行投票,而是对目标值进行平均。基本过程如下:

  1. 计算新数据点与训练集中所有点之间的距离。

  2. 根据这些距离选择 K 个最近邻居。

  3. 计算这些 K 个邻居的目标值的平均值。

  4. 将这个平均值作为新数据点的预测值。

https://github.com/OpenDocCN/towardsdatascience-blog-zh-2024/raw/master/docs/img/250524333fd9efd70666c9f0c773da69.png

上述方法,即使用所有数据点来寻找邻居,称为暴力搜索方法。它简单直接,但对于大规模数据集来说可能比较慢。

在这里,我们将探讨两种更高效的寻找最近邻居的算法:

KNN 回归的 KD 树

KD 树(K 维树)是一种二叉树结构,用于在k维空间中组织点。它特别适用于诸如最近邻搜索和多维数据范围搜索等任务。

训练步骤:

  1. 构建 KD 树:

a. 从包含所有点的根节点开始。

https://github.com/OpenDocCN/towardsdatascience-blog-zh-2024/raw/master/docs/img/f9eb3bb6d235cd561bf67f214fa3586f.png

b. 选择一个特征进行划分。实际上,选择任何一个随机特征都可以,但另一种较好的选择方式是查看哪个特征的中位数值最接近最大值与最小值之间的中点。

https://github.com/OpenDocCN/towardsdatascience-blog-zh-2024/raw/master/docs/img/79a398331b63176a9e9084603cb200e9.png

温度具有最接近中位线的中点线。我们可以从该维度开始进行拆分。

c. 在选定的特征和中点处分割树。

https://github.com/OpenDocCN/towardsdatascience-blog-zh-2024/raw/master/docs/img/c1a195c9003c18519a00a688f662db95.png

d. 递归地执行步骤 a-c,直到达到停止标准,通常是最小叶子节点大小(见这里的“最小样本叶子”)

https://github.com/OpenDocCN/towardsdatascience-blog-zh-2024/raw/master/docs/img/cfad5e8688c34aba173a931f66dbd614.png

2. 存储目标值:

在 KD 树中的每个点旁边存储其对应的目标值。每个节点的最小值和最大值也被存储。

https://github.com/OpenDocCN/towardsdatascience-blog-zh-2024/raw/master/docs/img/3cf4c4165760cabc63946fa1328de2c8.png

回归/预测步骤:

1. 遍历 KD 树:

a. 从根节点开始。

b. 比较查询点(测试点)与每个节点处的分割维度和值。

c. 根据比较结果递归地向左或向右遍历。

d. 当到达叶子节点时,将其点添加到候选集。

https://github.com/OpenDocCN/towardsdatascience-blog-zh-2024/raw/master/docs/img/b6ac7ebb18046966c3e7886af47a307e.png

2. 精细化搜索:

a. 回溯树结构,检查其他分支是否有更接近的点。

b. 使用未探索分支的最大值和最小值进行距离计算,以确定是否需要继续探索。

https://github.com/OpenDocCN/towardsdatascience-blog-zh-2024/raw/master/docs/img/d7b70deaeed99a10b64698e7be1c231e.png

我们回溯到未访问的分支,并检查那些节点的最小值和最大值的距离。

https://github.com/OpenDocCN/towardsdatascience-blog-zh-2024/raw/master/docs/img/dfb1b7b1b636bee05aa2c2ce53805785.png

由于这些节点的最小值和最大值都比第 k 个距离远,因此无需检查这些节点中数据点的距离。

3. 查找 K 个最近邻:

a. 在找到的候选点中,选择与查询点最接近的 K 个点。

4. 执行回归:

a. 计算 K 个最近邻的目标值的平均值。

b. 这个平均值即为查询点的预测值。

https://github.com/OpenDocCN/towardsdatascience-blog-zh-2024/raw/master/docs/img/73271b1d2aa3434168ed7b3c7b85b162.png

通过使用 KD 树,找到最近邻的平均时间复杂度可以从暴力搜索法中的O(n)减少到在许多情况下的O(logn),其中n是数据集中的点数。这使得 KNN 回归在大数据集中的效率大大提高。

KNN 回归中的球树

球树是另一种空间划分数据结构,它通过一系列嵌套的超球面组织点。在高维数据中,KD 树可能变得低效,而球树在这种情况下尤为有效。

训练步骤:

1. 构建球树:

a. 计算节点中所有点的重心(均值)。这将成为枢纽点

https://github.com/OpenDocCN/towardsdatascience-blog-zh-2024/raw/master/docs/img/f4e68143b7ec7469a2c23cc8f59c3d50.png

b. 构建第一个分支:

https://github.com/OpenDocCN/towardsdatascience-blog-zh-2024/raw/master/docs/img/3f318c1ad3e5909f1299034607cbb9d7.png

递归地对每个子节点应用步骤 a-b,直到满足停止标准,通常是最小叶子节点大小(请参见“最小样本叶子”)。

https://github.com/OpenDocCN/towardsdatascience-blog-zh-2024/raw/master/docs/img/7a2c7c38531c763643bd4d7f179f03e4.pnghttps://github.com/OpenDocCN/towardsdatascience-blog-zh-2024/raw/master/docs/img/466452b8a11ac4c4308f57d663d4c728.png

2. 存储目标值:

随着每个 Ball Tree 中的点,存储其对应的目标值。每个节点的半径和质心也会被存储。

https://github.com/OpenDocCN/towardsdatascience-blog-zh-2024/raw/master/docs/img/9883a4e7158dce6fa0413c88d60c6432.png

回归/预测步骤:

1. 遍历 Ball Tree:

a. 从根节点开始。

b. 在每个节点上,计算未见数据与每个子超球中心之间的距离。

c. 首先遍历到最接近的超球。

d. 当到达叶节点时,将其点添加到候选集。

https://github.com/OpenDocCN/towardsdatascience-blog-zh-2024/raw/master/docs/img/85e4feaae0d4811c3cc6f20839783835.png

2. 精细化搜索:

a. 确定是否需要探索其他分支。

b. 如果到超球的距离加上其半径大于当前第 K 个最近距离,则可以安全忽略该分支。

https://github.com/OpenDocCN/towardsdatascience-blog-zh-2024/raw/master/docs/img/a55da95adf34346e7d47fb4f5f316f47.png

对于之前考虑过的分支,将半径加到距离上。如果该距离大于当前的第 K 个距离,则无需探索这些球。

https://github.com/OpenDocCN/towardsdatascience-blog-zh-2024/raw/master/docs/img/0b1dfe1b420ff207edb0a413d4f3f131.png

3. 查找 K 个最近邻:

a. 从找到的候选点中,选择与查询点最接近的 K 个点。

4. 执行回归:

a. 计算 K 个最近邻的目标值平均值。

b. 这个平均值就是查询点的预测值。

https://github.com/OpenDocCN/towardsdatascience-blog-zh-2024/raw/master/docs/img/e2b2f49da2d913d67e259e3e5fa857fb.png

Ball Tree 对于高维数据或维度大于样本数量对数的情况比 KD Tree 更高效。即使维度增加,它们也能保持良好的性能,适用于广泛的数据集。

在 Ball Tree 中查询的时间复杂度通常是 O(logn),与 KD Tree 相似,但在高维度下,Ball Tree 通常表现得更好,而 KD Tree 可能退化为线性时间复杂度。

评估步骤(暴力法、KD 树、Ball 树)

无论我们选择哪种算法,它们都会给出相同的结果:

https://github.com/OpenDocCN/towardsdatascience-blog-zh-2024/raw/master/docs/img/ac80599b3efec37df8746639217d7aea.png

与虚拟回归器的结果相比,RMSE 值有了显著改善。

选择哪种算法?

你可以遵循这个简单的规则来选择最优的算法:

scikit-learn 中的‘auto’选项通常遵循以下图表:

https://github.com/OpenDocCN/towardsdatascience-blog-zh-2024/raw/master/docs/img/cdea807e4c32673c58a2daa66594870a.png

关键参数

虽然 KNN 回归有许多其他参数,除了我们刚刚讨论的算法(暴力法、kd 树、ball 树),但你主要需要考虑的是

  1. 邻居数(K)

    与分类不同,回归中偶数也可以,因为我们是在对值进行平均。

  2. 叶节点大小

    这是构建 kd 树或 ball 树的停止条件。通常,它会影响构建和查询的速度,以及存储树所需的内存。

优缺点

优点:

  1. 简洁性和多功能性:易于理解和实现;可以用于分类和回归任务。

  2. 无假设:不对数据分布做任何假设,使其适用于复杂数据集。

  3. 无训练阶段:可以快速纳入新数据,而无需重新训练。

  4. 可解释性:通过检查最近邻,可以解释预测结果。

缺点:

  1. 计算复杂度:预测时间可能较慢,尤其是对于大数据集,尽管优化算法(KD-Tree、Ball Tree)在低维情况下能有所帮助。

  2. 维度灾难:在高维空间中,性能会下降,影响准确性和效率。

  3. 内存密集型:需要存储所有训练数据。

  4. 对特征缩放和无关特征敏感:可能会受到较大尺度特征或对预测无关特征的偏倚。

最终备注

K 最近邻(KNN)回归器是机器学习中一个基本而强大的工具。它简单直观,非常适合初学者,而且其灵活性确保它对专家同样有用。

随着你对数据分析的了解逐渐深入,可以使用 KNN 来理解回归的基础知识,然后再探索更高级的方法。通过掌握 KNN 和如何计算最近邻,你将为处理更复杂的数据分析挑战打下坚实的基础。

🌟 K 最近邻回归器代码概述

# Import librariesimportpandasaspdimportnumpyasnpfromsklearn.model_selectionimporttrain_test_splitfromsklearn.metricsimportroot_mean_squared_errorfromsklearn.neighborsimportKNeighborsRegressorfromsklearn.preprocessingimportStandardScalerfromsklearn.composeimportColumnTransformer# Create datasetdataset_dict={'Outlook':['sunny','sunny','overcast','rain','rain','rain','overcast','sunny','sunny','rain','sunny','overcast','overcast','rain','sunny','overcast','rain','sunny','sunny','rain','overcast','rain','sunny','overcast','sunny','overcast','rain','overcast'],'Temperature':[85.0,80.0,83.0,70.0,68.0,65.0,64.0,72.0,69.0,75.0,75.0,72.0,81.0,71.0,81.0,74.0,76.0,78.0,82.0,67.0,85.0,73.0,88.0,77.0,79.0,80.0,66.0,84.0],'Humidity':[85.0,90.0,78.0,96.0,80.0,70.0,65.0,95.0,70.0,80.0,70.0,90.0,75.0,80.0,88.0,92.0,85.0,75.0,92.0,90.0,85.0,88.0,65.0,70.0,60.0,95.0,70.0,78.0],'Wind':[False,True,False,False,False,True,True,False,False,False,True,True,False,True,True,False,False,True,False,True,True,False,True,False,False,True,False,False],'Num_Players':[52,39,43,37,28,19,43,47,56,33,49,23,42,13,33,29,25,51,41,14,34,29,49,36,57,21,23,41]}df=pd.DataFrame(dataset_dict)# One-hot encode 'Outlook' columndf=pd.get_dummies(df,columns=['Outlook'])# Convert 'Wind' column to binarydf['Wind']=df['Wind'].astype(int)# Split data into features and target, then into training and test setsX,y=df.drop(columns='Num_Players'),df['Num_Players']X_train,X_test,y_train,y_test=train_test_split(X,y,train_size=0.5,shuffle=False)# Identify numerical columnsnumerical_columns=['Temperature','Humidity']# Create a ColumnTransformer to scale only numerical columnsct=ColumnTransformer([('scaler',StandardScaler(),numerical_columns)],remainder='passthrough')# Fit the ColumnTransformer on the training data and transform both training and test dataX_train_transformed=ct.fit_transform(X_train)X_test_transformed=ct.transform(X_test)# Convert the transformed data back to DataFramesfeature_names=numerical_columns+[colforcolinX_train.columnsifcolnotinnumerical_columns]X_train_scaled=pd.DataFrame(X_train_transformed,columns=feature_names,index=X_train.index)X_test_scaled=pd.DataFrame(X_test_transformed,columns=feature_names,index=X_test.index)# Initialize and train KNN Regressorknn=KNeighborsRegressor(n_neighbors=5,algorithm='kd_tree',#'ball_tree', 'brute'leaf_size=5)#default is 30knn.fit(X_train_scaled,y_train)# Make predictionsy_pred=knn.predict(X_test_scaled)# Calculate and print RMSErmse=root_mean_squared_error(y_test,y_pred)print(f"RMSE:{rmse:.4f}")

进一步阅读

有关KNeighborsRegressor、KDTree、BallTree及其在 scikit-learn 中的实现的详细说明,读者可以参考其官方文档。它提供了关于这些工具的使用及参数的全面信息。

技术环境

本文使用的是 Python 3.7 和 scikit-learn 1.5 版本。虽然讨论的概念普遍适用,但不同版本之间的具体代码实现可能会略有不同。

关于插图

除非另有说明,所有图片均由作者创建,并融合了来自 Canva Pro 的授权设计元素。

𝙎𝙚𝙚 𝙢𝙤𝙧𝙚 𝙍𝙚𝙜𝙧𝙚𝙨𝙨𝙞𝙤𝙣 𝘼𝙡𝙜𝙤𝙧𝙞𝙩𝙝𝙢𝙨 𝙝𝙚𝙧𝙚:

https://github.com/OpenDocCN/towardsdatascience-blog-zh-2024/raw/master/docs/img/835013c69e08fec04ad9ca465c2adf6c.png

Samy Baladram

回归算法

查看列表5 篇故事https://github.com/OpenDocCN/towardsdatascience-blog-zh-2024/raw/master/docs/img/aa7eeaa18e4bb093f5ce4ab9b93a8a27.pnghttps://github.com/OpenDocCN/towardsdatascience-blog-zh-2024/raw/master/docs/img/44e6d84e61c895757ff31e27943ee597.pnghttps://github.com/OpenDocCN/towardsdatascience-blog-zh-2024/raw/master/docs/img/7f3e5f3e2aca2feec035ca92e1bc440a.png

𝙔𝙤𝙪 𝙢𝙞𝙜𝙝𝙩 𝙖𝙡𝙨𝙤 𝙡𝙞𝙠𝙚:

https://github.com/OpenDocCN/towardsdatascience-blog-zh-2024/raw/master/docs/img/835013c69e08fec04ad9ca465c2adf6c.png

Samy Baladram

分类算法

查看列表8 篇故事https://github.com/OpenDocCN/towardsdatascience-blog-zh-2024/raw/master/docs/img/f95c1a80b88fe6220b18cd3b2a83a30d.pnghttps://github.com/OpenDocCN/towardsdatascience-blog-zh-2024/raw/master/docs/img/6ea70d9d2d9456e0c221388dbb253be8.pnghttps://github.com/OpenDocCN/towardsdatascience-blog-zh-2024/raw/master/docs/img/7221f0777228e7bcf08c1adb44a8eb76.png

需要专业的网站建设服务?

联系我们获取免费的网站建设咨询和方案报价,让我们帮助您实现业务目标

立即咨询