1 / 20
文档名称:

机器学习面精彩试题目.doc

格式:doc   大小:52KB   页数:20页
下载后只包含 1 个 DOC 格式的文档,没有任何的图纸或源代码,查看文件列表

如果您已付费下载过本站文档,您可以点这里二次下载

分享

预览

机器学习面精彩试题目.doc

上传人:cxmckate6 2022/1/6 文件大小:52 KB

下载得到文件列表

机器学习面精彩试题目.doc

相关文档

文档介绍

文档介绍:word
word
1 / 20
word
1、有监视学****和无监视学****的区别
有监视学****对具有标记的训练样本进展学****以尽可能对训练样本集外的数据进展分类预测。〔LR,SVM,BP,RF,GBDT〕
无监视学****对未标记的样本进展训练学****比发现这些样本中的结构知识。(KMeans,DL)
2、正如此化
正如此化是针对过拟合而提出的,以为在求解模型最优的是一般优化最小的经验风险,现在在该经验风险上参加模型复杂度这一项〔正如此化项是模型参数向量的X数〕,并使用一个rate比率来权衡模型复杂度与以往经验风险的权重,如果模型复杂度越高,结构化的经验风险会越大,现在的目标就变为了结构经验风险的最优化,可以防止模型训练过度复杂,有效的降低过拟合的风险。
奥卡姆剃刀原理,能够很好的解释数据并且十分简单才是最好的模型。
过拟合
如果一味的去提高训练数据的预测能力,所选模型的复杂度往往会很高,这种现象称为过拟合。所表现的就是模型训练时候的误差很小,但在测试的时候误差很大。
产生的原因过拟合原因:
样本数据的问题。
样本数量太少;
抽样方法错误,抽出的样本数据不能有效足够代表业务逻辑或业务场景。比如样本符合正态分布,却按均分分布抽样,或者样本数据不能代表整体数据的分布;
样本里的噪音数据干扰过大
2. 模型问题
模型复杂度高 、参数太多
决策树模型没有剪枝
权值学****迭代次数足够多(Overtraining),拟合了训练数据中的噪声和训练样例中没有代表性的特征.
解决方法
1. 样本数据方面。
增加样本数量,对样本进展降维,添加验证数据
抽样方法要符合业务场景
清洗噪声数据
2. 模型或训练问题
控制模型复杂度,优先选择简单的模型,或者用模型融合技术。
利用先验知识,添加正如此项。L1正如此更加容易产生稀疏解、L2正如此倾向于让参数w趋向于0.
4、交叉验证
word
word
3 / 20
word
不要过度训练,最优化求解时,收敛之前停止迭代。
决策树模型没有剪枝
权值衰减
5、泛化能力
泛化能力是指模型对未知数据的预测能力
6、生成模型和判别模型
1. 生成模型:由数据学****联合概率分布P(X,Y),然后求出条件概率分布P(Y|X)作为预测的模型,即生成模型:P(Y|X)= P(X,Y)/ P(X)。〔朴素贝叶斯、Kmeans〕
生成模型可以复原联合概率分布p(X,Y),并且有较快的学****收敛速度,还可以用于隐变量的学****br/>2. 判别模型:由数据直接学****决策函数Y=f(X)或者条件概率分布P(Y|X)作为预测的模型,即判别模型。〔k近邻、决策树、SVM〕
直接面对预测,往往准确率较高,直接对数据在各种程度上的抽象,所以可以简化模型
7、线性分类器与非线性分类器的区别以与优劣
如果模型是参数的线性函数,并且存在线性分类面,那么就是线性分类器,否如此不是。
常见的线性分类器有:LR,贝叶斯分类,单层感知机、线性回归
常见的非线性分类器:决策树、RF、GBDT、多层感知机
SVM两种都有(看线性核还是高斯核)
线性分类器速度快、编程方便,但是可能拟合效果不会很好
非线性分类器编程复杂,但是效果拟合能力强
8、特征比数据量还大时,选择什么样的分类器?
线性分类器,因为维度高的时候,数据一般在维度空间里面会比拟稀疏,很有可能线性可分
对于维度很高的特征,你是选择线性还是非线性分类器?
理由同上
对于维度极低的特征,你是选择线性还是非线性分类器?
非线性分类器,因为低维空间可能很多特征都跑到一起了,导致线性不可分
1. 如果Feature的数量很大,跟样本数量差不多,这时候选用LR或者是Linear Kernel的SVM
2. 如果Feature的数量比拟小,样本数量一般,不算大也不算小,选用SVM+Gaussian Kernel
3. 如果Feature的数量比拟小,而样本数量很多,需要手工添加一些feature变成第一种情况
9、ill-condition病态问题
训练完的模型测试样本稍作修改就会得到差异很大的结果,就是病态问题〔这简直是不能用啊〕
word
word
4 / 20
word
10、L1和L2正如此的区别,如何选择L1和L2正如此
他们都是可以防止过拟合,降低模型复杂度
L1是在loss function后面加上 模型参数的1X数〔也就是|xi|〕
L2是在loss function后面加上 模型参数的2X数〔也就是sigma(xi^2)〕,注意L2X数的定义是sqrt(sigma(xi^2)),在正如此项上没有添加sqrt根号是为了更加容易优