1 / 10
文档名称:

数据挖掘实验报告.docx

格式:docx   大小:34KB   页数:10页
下载后只包含 1 个 DOCX 格式的文档,没有任何的图纸或源代码,查看文件列表

如果您已付费下载过本站文档,您可以点这里二次下载

分享

预览

数据挖掘实验报告.docx

上传人:maritime_4 2022/6/22 文件大小:34 KB

下载得到文件列表

数据挖掘实验报告.docx

文档介绍

文档介绍:心北大¥
大数据理论与技术读书报告
— K最近邻
分类算法
指导老师: 陈莉
学生姓名:李阳帆
学 号:2 015314 6 7
专 业:计算机技术
日 期:2016年8月31日
数据挖掘就是机器学****领域内广泛研究得,其训练样 本由N维数值属性描述,每个样本代表N维空间得一个点。这样,所有训练样本都存放在N ,k—最临近分类法搜索模式空间,找出最接近未知样本得 K个训练样本。这K个训练样本就是未知样本得K个“近邻”.“临近性”又称为相异度(D i ssimi 1 arity),由欧几里德距离定义,其中两个点 X (x】,x2,…乂「与Y(y1,y2,—y )得欧几里德距离就是:
n
,也就就是当K = 1时, 未知样本被指定到模式空间中与之最临近得训练样本得类.
4、算法实现
4、1参数设置
K值得设定
K值设置过小会降低分类精度;若设置过大,且测试样本属于训练集中包含数据较少得类,则 会增加噪声,降低分类效果。通常,K值得设定采用交叉检验得方式(以K=1为基准), 通过查找相关资料,K一般低于训练样本数得平方根,本实验中得训练样本数为10 0个,因此 选取k=7。
4、2数据集
本文得实验数据采用软木塞得数据集,软木塞得样本可分为三类,分别用1 ,2,
3代表,共150个样本,我们选取其中得100个样本为训练集,其余得50个样本为 测试集。每个样本均包含1 0维特征,由于用10维特征计算量太大,本实验得目得主 要就是明白K-最近邻算法得思想,重点不在计算,因此我们选取其中得两个属性作为
本实验得数据,实验数据得部分截图如图 1所示。
1
2
22
155
61
23
200
91
24
114
61
25
178
66
26
92
50
27
165
63
28
145
51
29
63
24
图1、部分实验数据
4、3实验步骤
第一步,初始化距离为最大值。
第二步,计算未知样本与每个训练样本得距离 diSt。
第三步,得到目前K个最临近样本中得最大距离maxdist。
第四步,如果d is t小于maxdist,则将该训练样本作为K —最近邻样本.
第五步,重复步骤2、3、4,直到未知样本与所有训练样本得距离都算完.
第六步,统计K一最近邻样本中每个类标号出现得次数。
第七步,选择出现频率最大得类标号作为未知样本得类标号。
4、4实验结果与分析
按照上述实验步骤,在m a tlab中仿真实现k一近邻分类算法得结果如下图2所示,图中得 第一列数据表示样本编号,第二列与第三列表示软如塞数据得两位特征得值,第三列得数字 表示本实验得分类结果图,第四列表示样本实际所属类别。
,第i行第j列得元素表示第i 类样本被分为第j类样本得个数(2《i,j《4),第五列表示每类样本分类错误总数,第六列表 示错误率。由图中数据易得,本实验得平均正确率为86、7%。
KNN方法虽然从原理上也依赖于极限定理,但在类别决策时,只与极少量得相邻
样本有关。因此,采用这种方法可以较好地避免样本得不平衡问题。