怎么给网站备案,wordpress 时间线,申请做版主 再什么网站,网站广告连接如何做EM算法 引言EM算法例子及解法EM算法步骤和说明 引言
EM 算法是一种选代算法#xff0c;1977 年 Dempster 等人总结提出#xff0c;用于含有隐变量(hidden variable)的概率模型参数的极大似然估计#xff0c;或极大后验概率估计EM算法的每次选代由两步组成:E步#xff0c;求… EM算法 引言EM算法例子及解法EM算法步骤和说明 引言
EM 算法是一种选代算法1977 年 Dempster 等人总结提出用于含有隐变量(hidden variable)的概率模型参数的极大似然估计或极大后验概率估计EM算法的每次选代由两步组成:E步求期望 (expectation);M步求极大(maximization)所以这一算法称为期望极大算法(expectation maximizationalgorithm)简称EM算法。
EM算法例子及解法
三硬币模型: 假设有3 硬币分别作 A B C ABC ABC这些硬币正面出现的概率分别是 π \pi π p p p和 q q q进行如下硬币试验:先硬币 A A A根据其结果选出硬币 B B B或硬币 C C C正面选硬币 B B B反面选硬币 C C C;然后掷选出的硬币掷硬币的结果出现正面记作 1出现反面记作 0;独立地重复$n $次试验(这里n10)观测结果如下: 1 , 1 , 0 , 1 , 0 , 0 , 1 , 0 , 1 , 1 1,1,0,1,0,0,1,0,1,1 1,1,0,1,0,0,1,0,1,1 假设只能观测到掷硬币的结果不能观测掷硬币的过程。问如何估计三硬币正面出现的概率即三硬币模型的参数。 模型表达是为 P ( y ∣ θ ) ∑ z P ( y , z ∣ θ ) ∑ z P ( z ∣ θ ) P ( y ∣ z , θ ) π p y ( 1 − p ) y ( 1 − π ) q y ( 1 − q ) 1 − y \begin{align} P(y|\theta) \sum_{z}P(y,z|\theta)\sum_{z}P(z|\theta)P(y|z,\theta) \nonumber\\ \pi p^y (1-p)^y(1-\pi)q^y(1-q)^{1-y} \nonumber \end{align} P(y∣θ)z∑P(y,z∣θ)z∑P(z∣θ)P(y∣z,θ)πpy(1−p)y(1−π)qy(1−q)1−y 这里随机变量 y y y是观测变量表示一次试验观测的结果是 1或0;随机变量是隐变量表示未观测到的掷硬币 A A A 的结果; θ ( π , p , q ) \theta(\pi,p,q) θ(π,p,q)是模型参这一模型是以上数据的生成模型注意随机变量 y y y的数据可以观测随机变量 z z z的数据不可观测。 将观察数据表示为 Y ( Y 1 , Y 1 , . . . , Y 1 ) T Y(Y_1,Y_1,...,Y_1)^T Y(Y1,Y1,...,Y1)T,未观察数据表示为 Z ( Z 1 , Z 2 , . . . , Z n ) T Z(Z_1,Z_2,...,Z_n)^T Z(Z1,Z2,...,Zn)T,则观察数据的似然函数为 P ( Y ∣ θ ) ∑ z P ( Z ∣ θ ) P ( Y ∣ Z , θ ) P(Y|\theta)\sum_zP(Z|\theta)P(Y|Z,\theta) P(Y∣θ)z∑P(Z∣θ)P(Y∣Z,θ) 即 P ( Y ∣ θ ) ∏ j 1 n [ π p y j ( 1 − p ) y j ( 1 − π ) q y j ( 1 − q ) 1 − y j ] P(Y|\theta)\prod_{j1}^{n}[\pi p^{y_j} (1-p)^{y_j}(1-\pi)q^{y_j}(1-q)^{1-{y_j}}] P(Y∣θ)j1∏n[πpyj(1−p)yj(1−π)qyj(1−q)1−yj] 考虑求模型参数 θ ( π , p , q ) \theta(\pi,p,q) θ(π,p,q)的极大似然估计即 θ ^ a r g max θ l o g P ( Y ∣ θ ) \hat{\theta}arg \max\limits_{\theta}logP(Y|\theta) θ^argθmaxlogP(Y∣θ) 这个问题没有解析解只有通过迭代的方法求解。EM算法就是可以用于求解这个问题的一种迭代算法下面给出针对以上问题的EM算法其推导过程省略。 EM算法首先选取参数的初值记作 θ ( 0 ) ( π ( 0 ) , p ( 0 ) , q ( 0 ) ) \theta^{(0)}(\pi^{(0)},p^{(0)},q^{(0)}) θ(0)(π(0),p(0),q(0)),然后通过下面的迭代参数的估计值直至收敛为止。第 i i i次迭代参数的估计值为 θ ( 0 ) ( π ( i ) , p ( i ) , q ( i ) ) \theta^{(0)}(\pi^{(i)},p^{(i)},q^{(i)}) θ(0)(π(i),p(i),q(i))。EM 算法的第 i 1 i1 i1次迭代如下。 E步计算在模型参数 π ( i ) , p ( i ) , q ( i ) \pi^{(i)},p^{(i)},q^{(i)} π(i),p(i),q(i)下观测数据 y i y_i yi来自掷硬币B的概率 μ i 1 π ( p ( i ) ) y j ( 1 − ( p ( i ) ) ) y j π ( p ( i ) ) y j ( 1 − ( p ( i ) ) ) y j ( 1 − π ) ( q ( i ) ) y j ( 1 − ( q ( i ) ) ) 1 − y j \mu^{i1}\frac{\pi (p^{(i)})^{y_j} (1- (p^{(i)}))^{y_j}}{\pi (p^{(i)})^{y_j} (1- (p^{(i)}))^{y_j}(1-\pi)(q^{(i)})^{y_j}(1-(q^{(i)}))^{1-{y_j}}} μi1π(p(i))yj(1−(p(i)))yj(1−π)(q(i))yj(1−(q(i)))1−yjπ(p(i))yj(1−(p(i)))yj M步计算模型参数的新估计值 π ( i 1 ) 1 n ∑ j 1 n μ j ( i 1 ) \pi^{(i1)}\frac{1}{n} \sum_{j1}^{n} \mu_j^{(i1)} π(i1)n1j1∑nμj(i1) p ( i 1 ) ∑ j 1 n μ j ( i 1 ) y j ∑ j 1 n μ j ( i 1 ) p^{(i1)}\frac{ \sum_{j1}^{n} \mu_j^{(i1)}y_j}{ \sum_{j1}^{n} \mu_j^{(i1)}} p(i1)∑j1nμj(i1)∑j1nμj(i1)yj q ( i 1 ) ∑ j 1 n ( 1 − μ j ( i 1 ) ) y j ∑ j 1 n ( 1 − μ j ( i 1 ) ) q^{(i1)}\frac{ \sum_{j1}^{n} (1-\mu_j^{(i1)})y_j}{ \sum_{j1}^{n} (1-\mu_j^{(i1)})} q(i1)∑j1n(1−μj(i1))∑j1n(1−μj(i1))yj 进行数字计算假设模型参数的初值为 π ( 0 ) 0.5 , p ( 0 ) 0.5 , q ( 0 ) 0.5 \pi^{(0)}0.5,p^{(0)}0.5,q^{(0)}0.5 π(0)0.5,p(0)0.5,q(0)0.5 对 y j 1 y_j1 yj1与 y j 0 y_j0 yj0均有 μ j ( 1 ) 0.5 \mu_j^{(1)}0.5 μj(1)0.5。 根据M步计算得到 π ( 0 ) 0.5 , p ( 0 ) 0.6 , q ( 0 ) 0.6 \pi^{(0)}0.5,p^{(0)}0.6,q^{(0)}0.6 π(0)0.5,p(0)0.6,q(0)0.6 根据E步可以得到 μ j ( 2 ) 0.5 , j 1 , 2 , . . . , 10 \mu_j^{(2)}0.5,j1,2,...,10 μj(2)0.5,j1,2,...,10 继续迭代得 π ( 0 ) 0.5 , p ( 0 ) 0.6 , q ( 0 ) 0.6 \pi^{(0)}0.5,p^{(0)}0.6,q^{(0)}0.6 π(0)0.5,p(0)0.6,q(0)0.6 于是得到模型参数 θ \theta θ的极大似然估计 π ^ 0.5 , p ^ 0.6 , q ^ 0.6 \hat{\pi}0.5,\hat p0.6,\hat q0.6 π^0.5,p^0.6,q^0.6 π 0.5 \pi0.5 π0.5表示硬币A是匀称的这一结果容易理解。 如果取初始值 π ( 0 ) 0.4 , p ( 0 ) 0.6 , q ( 0 ) 0.7 \pi^{(0)}0.4,p^{(0)}0.6,q^{(0)}0.7 π(0)0.4,p(0)0.6,q(0)0.7,那么得到的模型参数的极大似然估计 π ^ 0.4064 , p ^ 0.5368 , q ^ 0.6432 \hat{\pi}0.4064,\hat p0.5368,\hat q0.6432 π^0.4064,p^0.5368,q^0.6432。这就是说EM算法与初始值的选择有关选择不同的初值可能得到不同的参数估计值。
EM算法步骤和说明
一般地用Y表示观测随机变量的数据Z表示隐随机变量的数据Y和Z连在一起称为完全数据 (complete-data)观测数据Y又称为不完全数据(incomplete-data)。假设给定观测数据Y其概率分布是 P ( Y ∣ θ ) P(Y|\theta) P(Y∣θ)其中是需要估计的模型参数那么不完全数据Y的似然函数是 P ( Y ∣ θ ) P(Y|\theta) P(Y∣θ)对数似然函数 L ( 0 ) l o g P ( Y ∣ θ ) L(0)logP(Y|\theta) L(0)logP(Y∣θ);假设Y和Z的联合概率分布是 P ( Y Z ∣ θ ) P(YZ|\theta) P(YZ∣θ)那完全的对数似然函数是 l o g P ( Y , Z ∣ θ ) logP(Y,Z|\theta) logP(Y,Z∣θ)。 EM算法通过选代求 L ( θ ) l o g P ( Y ∣ θ ) L(\theta)logP(Y|\theta) L(θ)logP(Y∣θ)的极大似然估计每次代包含两步:E 步求期望:M步求极大化下面来介绍 EM 算法。 输入:观测变量数据 Y Y Y隐变量数据 Z Z Z联合分布 P ( Y , Z ∣ θ ) P(Y,Z|\theta) P(Y,Z∣θ)条件分布 P ( Z ∣ Y , θ ) P(Z|Y,\theta) P(Z∣Y,θ); 输出:模型参数 θ \theta θ。 (1)选择参数的初值 θ ( 0 ) \theta^{(0)} θ(0)开始迭代; (2)E步:记 θ ( i ) \theta^{(i)} θ(i)为第 i i i次代参数的估计值在第 i 1 i1 i1次选代的E步计算 Q ( θ , θ ( i ) ) E Z [ l o g P ( Y , Z ∣ θ ) ∣ Y , θ ( i ) ] ∑ Z l o g P ( Y , Z ∣ θ ) P ( Z ∣ Y , θ ( i ) ) \begin{align} Q(\theta,\theta^{(i)}) E_Z[logP(Y,Z|\theta)|Y,\theta^{(i)}] \nonumber\\ \sum_{Z}logP(Y,Z|\theta)P(Z|Y,\theta^{(i)}) \nonumber\\ \end{align} Q(θ,θ(i))EZ[logP(Y,Z∣θ)∣Y,θ(i)]Z∑logP(Y,Z∣θ)P(Z∣Y,θ(i)) 这里 P ( Z ∣ Y , θ ) P(Z|Y,\theta) P(Z∣Y,θ)在给定观测数据 Y Y Y和当前的参数估计 θ ( i ) \theta^{(i)} θ(i)下隐变量数据 Z Z Z的条件概率分布 (3)M步求使 Q ( θ , θ ( i ) ) Q(\theta,\theta^{(i)}) Q(θ,θ(i))极大化的 θ \theta θ,确定第 i 1 i1 i1次迭代的参数的估计值 θ ( i 1 ) \theta^{(i1)} θ(i1) θ ( i 1 ) arg max θ Q ( θ , θ ( i ) ) \theta^{(i1)}\arg \max \limits_{\theta}Q(\theta,\theta^{(i)}) θ(i1)argθmaxQ(θ,θ(i)) (4)重复第2步和第3步直到收敛。 函数 Q ( θ , θ ( i ) ) Q(\theta,\theta^{(i)}) Q(θ,θ(i))是EM算法的核心称为Q函数Q function。 下面关于 EM 算法作几点说明: 步骤(1)参数的初值可以任意选择但需注意 EM算法对初值是敏感的步骤(2)E步求 Q ( θ , θ ( i ) ) Q(\theta,\theta^{(i)}) Q(θ,θ(i))。Q函数式中Z是未观察数据Y是观测数据注意 Q ( θ , θ ( i ) ) Q(\theta,\theta^{(i)}) Q(θ,θ(i))的第1个变元表示要极大化的参数第2个变元表示参数的当前估计值。每次迭代实际在求 Q Q Q函数及其极大。 步骤(3)M步求 Q ( θ , θ ( i ) ) Q(\theta,\theta^{(i)}) Q(θ,θ(i))的极大化得到 θ ( i 1 ) \theta^{(i1)} θ(i1)完成一次代 θ ( i ) − θ ( i 1 ) \theta^{(i)}-\theta^{(i1)} θ(i)−θ(i1)。后面将证明每次迭代使似然函数增大或达到局部极值。 步骤(4)给出停止迭代的条件一般是对较小的正数 ϵ 1 , ϵ 2 \epsilon_1,\epsilon_2 ϵ1,ϵ2若满足 ∣ ∣ θ ( i 1 ) − θ ( i ) ∣ ∣ ϵ 1 或 ∣ ∣ Q ( θ ( i 1 ) , θ ( i ) ) − Q ( θ ( i ) , θ ( i ) ) ∣ ∣ ϵ 2 || \theta^{(i1)}- \theta^{(i)}||\epsilon_1 或||Q(\theta^{(i1)},\theta^{(i)})- Q(\theta^{(i)},\theta^{(i)})||\epsilon_2 ∣∣θ(i1)−θ(i)∣∣ϵ1或∣∣Q(θ(i1),θ(i))−Q(θ(i),θ(i))∣∣ϵ2 则停止迭代 文章转载自: http://www.morning.xcyhy.cn.gov.cn.xcyhy.cn http://www.morning.khzml.cn.gov.cn.khzml.cn http://www.morning.ftzll.cn.gov.cn.ftzll.cn http://www.morning.myrmm.cn.gov.cn.myrmm.cn http://www.morning.bmjfp.cn.gov.cn.bmjfp.cn http://www.morning.kjgrg.cn.gov.cn.kjgrg.cn http://www.morning.nkjxn.cn.gov.cn.nkjxn.cn http://www.morning.kjkml.cn.gov.cn.kjkml.cn http://www.morning.fhghy.cn.gov.cn.fhghy.cn http://www.morning.lwjlj.cn.gov.cn.lwjlj.cn http://www.morning.beeice.com.gov.cn.beeice.com http://www.morning.qrpx.cn.gov.cn.qrpx.cn http://www.morning.zcqtr.cn.gov.cn.zcqtr.cn http://www.morning.mumgou.com.gov.cn.mumgou.com http://www.morning.bsxws.cn.gov.cn.bsxws.cn http://www.morning.fqyqm.cn.gov.cn.fqyqm.cn http://www.morning.fwkpp.cn.gov.cn.fwkpp.cn http://www.morning.wdshp.cn.gov.cn.wdshp.cn http://www.morning.dtrzw.cn.gov.cn.dtrzw.cn http://www.morning.bxch.cn.gov.cn.bxch.cn http://www.morning.hwcgg.cn.gov.cn.hwcgg.cn http://www.morning.pzpj.cn.gov.cn.pzpj.cn http://www.morning.wqfrd.cn.gov.cn.wqfrd.cn http://www.morning.fnmgr.cn.gov.cn.fnmgr.cn http://www.morning.nqbs.cn.gov.cn.nqbs.cn http://www.morning.kyzja.com.gov.cn.kyzja.com http://www.morning.zlcsz.cn.gov.cn.zlcsz.cn http://www.morning.mjmtm.cn.gov.cn.mjmtm.cn http://www.morning.yhywx.cn.gov.cn.yhywx.cn http://www.morning.wgqtt.cn.gov.cn.wgqtt.cn http://www.morning.klyyd.cn.gov.cn.klyyd.cn http://www.morning.rpzqk.cn.gov.cn.rpzqk.cn http://www.morning.xmpbh.cn.gov.cn.xmpbh.cn http://www.morning.flncd.cn.gov.cn.flncd.cn http://www.morning.yhywx.cn.gov.cn.yhywx.cn http://www.morning.fldk.cn.gov.cn.fldk.cn http://www.morning.wbfly.cn.gov.cn.wbfly.cn http://www.morning.nqlnd.cn.gov.cn.nqlnd.cn http://www.morning.lynmt.cn.gov.cn.lynmt.cn http://www.morning.qkkmd.cn.gov.cn.qkkmd.cn http://www.morning.nkjjp.cn.gov.cn.nkjjp.cn http://www.morning.0dirty.cn.gov.cn.0dirty.cn http://www.morning.hrtwt.cn.gov.cn.hrtwt.cn http://www.morning.cyyhy.cn.gov.cn.cyyhy.cn http://www.morning.sgqw.cn.gov.cn.sgqw.cn http://www.morning.trqsm.cn.gov.cn.trqsm.cn http://www.morning.hkchp.cn.gov.cn.hkchp.cn http://www.morning.bpmnc.cn.gov.cn.bpmnc.cn http://www.morning.ldsgm.cn.gov.cn.ldsgm.cn http://www.morning.bpwfr.cn.gov.cn.bpwfr.cn http://www.morning.rdnpg.cn.gov.cn.rdnpg.cn http://www.morning.qygfb.cn.gov.cn.qygfb.cn http://www.morning.fwkjp.cn.gov.cn.fwkjp.cn http://www.morning.qlznd.cn.gov.cn.qlznd.cn http://www.morning.lwtfx.cn.gov.cn.lwtfx.cn http://www.morning.zwgbz.cn.gov.cn.zwgbz.cn http://www.morning.xjtnp.cn.gov.cn.xjtnp.cn http://www.morning.clkjn.cn.gov.cn.clkjn.cn http://www.morning.pdmsj.cn.gov.cn.pdmsj.cn http://www.morning.qrndh.cn.gov.cn.qrndh.cn http://www.morning.jbtwq.cn.gov.cn.jbtwq.cn http://www.morning.qrdkk.cn.gov.cn.qrdkk.cn http://www.morning.gjmbk.cn.gov.cn.gjmbk.cn http://www.morning.drbwh.cn.gov.cn.drbwh.cn http://www.morning.mcjyair.com.gov.cn.mcjyair.com http://www.morning.hjrjy.cn.gov.cn.hjrjy.cn http://www.morning.nqcwz.cn.gov.cn.nqcwz.cn http://www.morning.gbsfs.com.gov.cn.gbsfs.com http://www.morning.lmmkf.cn.gov.cn.lmmkf.cn http://www.morning.kjlhb.cn.gov.cn.kjlhb.cn http://www.morning.sjpbh.cn.gov.cn.sjpbh.cn http://www.morning.nzxdz.cn.gov.cn.nzxdz.cn http://www.morning.gnyhc.cn.gov.cn.gnyhc.cn http://www.morning.nnykz.cn.gov.cn.nnykz.cn http://www.morning.jcfdk.cn.gov.cn.jcfdk.cn http://www.morning.gmgnp.cn.gov.cn.gmgnp.cn http://www.morning.njddz.cn.gov.cn.njddz.cn http://www.morning.hctgn.cn.gov.cn.hctgn.cn http://www.morning.zydr.cn.gov.cn.zydr.cn http://www.morning.qbzdj.cn.gov.cn.qbzdj.cn