1 / 20
文档名称:

第五章 非监督学习法.ppt

格式:ppt   大小:1,418KB   页数:20页
下载后只包含 1 个 PPT 格式的文档,没有任何的图纸或源代码,查看文件列表

如果您已付费下载过本站文档,您可以点这里二次下载

分享

预览

第五章 非监督学习法.ppt

上传人:石角利妹 2022/4/7 文件大小:1.38 MB

下载得到文件列表

第五章 非监督学习法.ppt

相关文档

文档介绍

文档介绍:第五章 非监督学习法
*
中国矿业大学 计算机科学与技术学院
(20)*
第1页,共20页,编辑于2022年,星期一
*
中国矿业大学 计算机科学与技术学院
(20)*
将数据按它们表现出的共性进行划分有两种基本方法结天气变化的规律,给出天气预报吗?
5、机器能炒股吗?
6、非监督学习方法与数据有关系吗?
第7页,共20页,编辑于2022年,星期一
*
中国矿业大学 计算机科学与技术学院
(20)*
§ 引言
有监督的学习方法
无监督的学习方法
人们日常生活中经常要观察事物与分析事物,从中寻找其规律性,这就是非监督学习方法要解决的问题。
第8页,共20页,编辑于2022年,星期一
*
中国矿业大学 计算机科学与技术学院
(20)*
第9页,共20页,编辑于2022年,星期一
*
中国矿业大学 计算机科学与技术学院
(20)*
非监督学习与有监督学习方法的以下几种不同点:
1、有监督学习方法必须要有训练集与测试样本。
而非监督学习没有训练集这一说,只有一组数据,在该组数据集内寻找规律。
2、有监督学习方法的目的就是识别事物,识别的结果表现在给待识别数据加上了标号。
而非监督学习方法只有要分析的数据集本身,预先没有什么标号。
第10页,共20页,编辑于2022年,星期一
*
中国矿业大学 计算机科学与技术学院
(20)*
3、非监督学习方法在寻找数据集中的规律性,这种规律性并不一定要达到划分数据集的目的,也就是说不一定要“分类”。这一点是比有监督学习方法的用途要广泛。
4、用非监督学习方法分析数据集的主分量与用K-L变换计算数据集的主分量又有区别。应该说后者从方法上讲不是一种学习方法。因此用K-L变换找主分量不属于非监督学习方法,即方法上不是。而通过学习逐渐找到规律性这体现了学习方法这一点。在人工神经元网络中寻找主分量的方法属于非监督学习方法。
第11页,共20页,编辑于2022年,星期一
*
中国矿业大学 计算机科学与技术学院
(20)*
无监督学习方法可以分成两大类:
1、基于概率密度函数估计的直接方法,指设法找到各类别在特征空间的分布参数再进行分类。
2、基于样本间相似性度量的间接聚类方法,其原理是设法定出不同类别的核心或初始类核,然后依据样本与这些核心之间的相似性度量将样本聚集成不同类别。
第12页,共20页,编辑于2022年,星期一
*
中国矿业大学 计算机科学与技术学院
(20)*
§ 单峰子类的分离方法
每个单峰区域则被看作不同的决策域。落在同一单峰区域的待分类样本就被划分成同一类,称为单峰子类。
单峰子集分离示意图
第13页,共20页,编辑于2022年,星期一
*
中国矿业大学 计算机科学与技术学院
(20)*
§ 投影法
第14页,共20页,编辑于2022年,星期一
*
中国矿业大学 计算机科学与技术学院
(20)*
使用投影方法有两个组成部分
(1)如何设计合适的坐标系统
(2)如何设计直方图
第15页,共20页,编辑于2022年,星期一
*
中国矿业大学 计算机科学与技术学院
(20)*
投影法的具体算法分以下几个步骤:
步骤1:计算样本协方差矩阵具有最大特征值的特征向量Uj,把数据投影到Uj轴上。
步骤2:用直方图方法求数据的边缘概率密度函数。
步骤3:在直方图的峰值间求最小值,在这些最小点作垂直于Uj的各个超平面把数据划分为若干个聚类。
步骤4:如果在这个轴上没有这样的最小值,则用下一个最大特征值对应的特征向量重复以上过程。
步骤5:对每个得到的子集(聚类)重复上述过程,直到每个集不能再分(为单峰)为止。
第16页,共20页,编辑于2022年,星期一
*
中国矿业大学 计算机科学与技术学院
(20)*
§ 基于对称集性质的单峰子集分离法
多维空间中给单峰区域下严格的定义是困难的。
对称子集的定义:
如果考虑数据Γ,其中任何一对点y1和y2之间的距离用δ(y1,y2) 表示,该数据集Γ还具有以下性质:
如果δ(yi, y0) ≤δ(yj, y0),则p(yi) ≥p(yj)
则该个区域能确保是单峰区域,该数据集称为对称子集。
对称子集一定具有单峰性质,但是单峰子集却不一定是对称子集。
第17页,共20页,编辑于2022年,星期一
*
中国矿业大学 计算机科学与技术学院
(20)*
对称子集的形成
对称子集的形成过程可以分成两个步骤进行。
第一步:先将整个特征空间的数据集形成一个按分布概率下降的序列
第二步:利用S是概率分布下降