K近邻算法模型,如何对鸢尾花数据集进行预测?
发布于 作者:苏南大叔 来源:程序如此灵动~

sklearn
里面的K近邻算法模型,是如何对鸢尾花数据集进行预测的呢?K近邻算法的全称是"K-Nearest Neighbors",简称KNN
。从代码的角度上来看,套路依然一致,换包引用换模型名称,然后就执行代码就可以了。

苏南大叔的“程序如此灵动”博客,记录苏南大叔的代码编程经验文章。本文测试环境:win10
,python@3.11.0
,sklearn@1.2.2
。本文讲求短平快,直接上干货,并不会对K近邻算法模型的细节进行讲解。
获得鸢尾花训练集
从前面的文章里面,苏南大叔已经对鸢尾花数据集做了无数次各个角度的数据分析。其实主要的目标就是读取csv
,拿到目标数据并进行数据集切分。参考文章:
- https://newsn.net/say/sklearn-load_iris.html
- https://newsn.net/say/sklearn-csv.html
- https://newsn.net/say/sklearn-train_test_split.html
拿到鸢尾花数据集的方式很多,本文中加载的是从tensorflow
官网下载到本地的iris2.csv
鸢尾花数据集。
获取数据集的代码如下:
这里拿到的X
/y
数据类型都是ndarray
。
K近邻算法模型预测
邻近算法,或者说K
最邻近(KNN,K-NearestNeighbor
)分类算法是数据挖掘分类技术中最简单的方法之一。所谓K
最近邻,就是K
个最近的邻居的意思,说的是每个样本都可以用它最接近的K
个邻近值来代表。近邻算法就是将数据集合中每一个记录进行分类的方法。
这里采用K-Nearest Neighbors
K近邻算法预测模型,做鸢尾花数据集的预测。测试代码如下:
输出:

结束语
机器学习的各种模型非常多,每个模型内部也有很多不同的预测方法。苏南大叔目前致力于最基本的简单介绍了解机器学习的各种算法,所以相关文章写的也不是很详细,见谅。


