1 / 2
文档名称:

(7)混合高斯模型和EM算法.pdf

格式:pdf   页数:2页
下载后只包含 1 个 PDF 格式的文档,没有任何的图纸或源代码,查看文件列表

如果您已付费下载过本站文档,您可以点这里二次下载

分享

预览

(7)混合高斯模型和EM算法.pdf

上传人:分享精品 2015/9/24 文件大小:0 KB

下载得到文件列表

(7)混合高斯模型和EM算法.pdf

文档介绍

文档介绍:混合高斯模型(Mixtures of Gaussians)和 EM 算法
JerryLead
csxulijie@

这篇讨论使用期望最大化算法(Expectation-Maximization)来进行密度估计(density
estimation)。
与 k-means 一样,给定的训练样本是*𝑥(1), …, 𝑥(𝑚)+,我们将隐含类别标签用z(𝑖)表示。
与 k-means 的硬指定不同,我们首先认为z(𝑖)是满足一定的概率分布的,这里我们认为满足
(𝑖) (𝑖) 𝑘(𝑖)
多项式分布,z ~Multinomial(∅),其中p(z = j) = ∅j, ∅j ≥ 0, ∑𝑗=1 ∅j = 1,z 有 k 个值
{1,…,k}可以选取。而且我们认为在给定z(𝑖) 后,𝑥(𝑖) 满足多值高斯分布,即(𝑥(𝑖)|z(𝑖) =
(𝑖) (𝑖) (𝑖) (𝑖) (𝑖)
j)~N(𝜇𝑗, Σ𝑗)。由此可以得到联合分布p(𝑥, z ) = 𝑝(𝑥| z )𝑝(z )。
整个模型简单描述为对于每个样例𝑥(𝑖),我们先从 k 个类别中按多项式分布抽取一个z(𝑖),
然后根据z(𝑖)所对应的 k 个多值高斯分布中的一个生成样例𝑥(𝑖),。整个过程称作混合高斯模
型。注意的是这里的z(𝑖)仍然是隐含随机变量。模型中还有三个变量∅,μ和Σ。最大似然估
计为p(x, z)。对数化后如下:

这个式子的最大值是不能通过前面使用的求导数为 0 的方法解决的,因为求的结果不是
close form。但是假设我们知道了每个样例的z(𝑖),那么上式可以简化为:

这时候我们再来对∅,μ和Σ进行求导得到:

(𝑖)
∅𝑗就是样本类别中z = j的比率。μ𝑗是类别为 j 的样本特征均值,Σ𝑗是类别为 j 的
样例的特征的协方差矩阵。
实际上,当知道z(𝑖) 后,最大似然估计就近似于高斯判别分析模型(Gaussian
discriminant analysis model)了。所不同的是 GDA 中类别 y 是伯努利分布,而这里的 z
是多项式分布,还有这里的每个样例都有不同的协方差矩阵,而 GDA 中认为只有一个。
之前我们是假设给定了z(𝑖),实际上z(𝑖)是不知道的。那么怎么办呢?考虑之前提到
的 EM 的思想,第一步是猜测隐含类别变量 z,第二步是更新其他参数,以获得最大的
最大似然估计。用到这里就是:
循环下面步骤,直到收敛: {
(E 步)对于每一个 i 和 j,计算
(i) (𝑖) (𝑖)