当前位置: 首页 > news >正文

免费化妆品网站模板下载网站代码开发方式

免费化妆品网站模板下载,网站代码开发方式,安徽网架公司,莆田做网站公司电话机器学习第7章——贝叶斯分类器 7.贝叶斯分类器7.1贝叶斯决策论7.2 朴素贝叶斯分类器条件概率的m估计 7.3 极大似然估计优点基本原理 7.4 贝叶斯网络7.5 半朴素贝叶斯分类器7.6 EM算法7.7 EM算法实现 7.贝叶斯分类器 7.1贝叶斯决策论 一个医疗判断问题 有两个可选的假设#… 机器学习第7章——贝叶斯分类器 7.贝叶斯分类器7.1贝叶斯决策论7.2 朴素贝叶斯分类器条件概率的m估计 7.3 极大似然估计优点基本原理 7.4 贝叶斯网络7.5 半朴素贝叶斯分类器7.6 EM算法7.7 EM算法实现 7.贝叶斯分类器 7.1贝叶斯决策论 一个医疗判断问题 有两个可选的假设病人有癌症病人无癌症 可用数据来自化验结果正和负- 有先验知识 在所有人口中患病率是0.008对确实有病的患者的化验准确率是0.98对确实无病的患者的化验准确率是0.97、 总结如下 P ( c a n c e r ) 0.008 , p ( ¬ c a n c e r ) 0.992 P ( ∣ c a n c e r ) 0.98 , p ( − ∣ c a n c e r ) 0.02 P ( ∣ ¬ c a n c e r ) 0.08 , p ( − ∣ c a n c e r ) 0.97 P(cancer)0.008,p(\neg cancer)0.992\\ P(|cancer)0.98,p(-|cancer)0.02\\ P(|\neg cancer)0.08,p(-|cancer)0.97\\ P(cancer)0.008,p(¬cancer)0.992P(∣cancer)0.98,p(−∣cancer)0.02P(∣¬cancer)0.08,p(−∣cancer)0.97 问题假定有一个新病人化验结果为正是否应将病人断定为有癌症求后验概率 P ( c a n c e r ∣ ) , p ( ¬ c a n c e r ∣ ) P(cancer|),p(\neg cancer|)\\ P(cancer∣),p(¬cancer∣) 贝叶斯定理的意义在于我们在生活中经常遇到这种情况 我们可以很容易直接得出P(A|B)P(B|A)则很难直接得出但我们更关心P(B|A)。 贝叶斯定理 P ( B ∣ A ) P ( A ∣ B ) P ( B ) P ( A ) P(B|A)\frac{P(A|B)P(B)}{P(A)} P(B∣A)P(A)P(A∣B)P(B)​ 例子有一家企业M提供产品和服务企业K考虑是否进入该市场。同时企业M会阻止K进入该市场而企业K能否进入该市场完全取决于M为组织其进入所花费的成本大小。 假设K并不知道M是属于高阻挠成本类型还是低阻挠成本类型 如果M属于高阻挠成本类型K进入市场时M进行阻挠的概率是20%如果M属于低阻挠成本类型K进入市场时M进行阻挠的概率是100% 现设K认为M属于高阻挠成本企业的概率为70%K进入市场后M进行了阻挠判断企业M为高阻挠成本类型的概率。 综上M为高阻挠成本类型的概率为0.32也就是说M为低阻挠成本类型的概率为0.68即M更有可能是低阻挠成本类型 7.2 朴素贝叶斯分类器 给定类标号y朴素贝叶斯分类器在估计类条件概率时假设属性之间条件独立。条件独立假设可以形式化的表达如下: P ( X ∣ Y y ) ∏ i 1 n P ( x i ∣ Y y ) 其中每个训练样本可用一个属性向量 X ( x 1 , x 2 , x 3 , . . . , x n ) 表示各个属性之间条件独立 P(X|Yy)\prod_{i1}^n P(x_i|Yy)\\ 其中每个训练样本可用一个属性向量X(x_1,x_2,x_3,...,x_n)表示各个属性之间条件独立 P(X∣Yy)i1∏n​P(xi​∣Yy)其中每个训练样本可用一个属性向量X(x1​,x2​,x3​,...,xn​)表示各个属性之间条件独立 假设给定的训练样本数据计算 x ( o u t l o o k S u n n y t e m p e r a t u r e C o o l h u m d i t y H i g h w i n d S t r o n g ) , y [ y e s , n o ] x\begin{pmatrix} outlookSunny \\ temperatureCool \\ humdityHigh \\ wind Strong \end{pmatrix},y[yes,no] x ​outlookSunnytemperatureCoolhumdityHighwindStrong​ ​,y[yes,no] DayOutlookTemperateHumidityWindPlay TennisD1SunnyHotHighWeakNoD2SunnyHotHighStrongNoD3OvercastHotHighWeakYesD4RainMildHighWeakYesD5RainCoolNormalWeakYesD6RainCoolNormalStrongNoD7OvercastCoolNormalStrongYesD8SunnyMildHighWeakNoD9SunnyCoolNormalWeakYesD10RainMildNormalWeakYesD11SunnyMildNormalStrongYesD12OvercastMildHighStrongYesD13OvercastHotNormalWeakYesD14RainMildHighStrongNo 对于如果存在连续属性来说假定概率服从高斯分布则 μ c , i 和 σ c , i 2 表示第 c 类样本在第 i 个属性上取值的均值和方差 \mu_{c,i}和\sigma_{c,i}^2表示第c类样本在第i个属性上取值的均值和方差\\ μc,i​和σc,i2​表示第c类样本在第i个属性上取值的均值和方差 p ( x i ∣ c ) 1 2 π σ c , i e − ( x i − μ c , i ) 2 2 σ c , i 2 p(x_i|c)\frac{1}{\sqrt{2\pi}\sigma_{c,i}}e^{-\frac{(x_i-\mu_{c,i})^2}{2\sigma_{c,i}^2}} p(xi​∣c)2π ​σc,i​1​e−2σc,i2​(xi​−μc,i​)2​ 假如有一个西瓜的密度为0.697样本中好瓜密度的均值为0.574好瓜标准差为0.129 p ( 密度 0.697 ∣ 好瓜 是 ) 1 2 π × 0.129 e − ( 0.697 − 0.574 ) 2 2 × 0.12 9 2 ≈ 1.959 p(密度0.697|好瓜是)\frac{1}{\sqrt{2\pi}\times0.129}e^{-\frac{(0.697-0.574)^2}{2\times0.129^2}}\approx1.959 p(密度0.697∣好瓜是)2π ​×0.1291​e−2×0.1292(0.697−0.574)2​≈1.959 剩下的属性计算步骤与上例相同 但是这样存在一个问题假设来了一个新样本 x ( o u t l o o k C l o u d y t e m p e r a t u r e C o o l h u m d i t y H i g h w i n d S t r o n g ) x\begin{pmatrix} outlookCloudy \\ temperatureCool \\ humdityHigh \\ wind Strong \end{pmatrix} x ​outlookCloudytemperatureCoolhumdityHighwindStrong​ ​ 进行计算会发现 P ( o u t l o o k C l o u d y ∣ Y y e s ) 0 9 0 P ( o u t l o o k C l o u d y ∣ Y n o ) 0 5 0 P(outlookCloudy|Yyes)\frac{0}{9}0\\ P(outlookCloudy|Yno)\frac{0}{5}0 P(outlookCloudy∣Yyes)90​0P(outlookCloudy∣Yno)50​0 这样到最后会使整个式子等于0没有记录到并不等于出现的概率是0所以提出了条件概率的m估计 条件概率的m估计 当训练样本不能覆盖那么多的属性值时都会出现上述的窘境。简单的使用样本比例来估计类条件概率的方法太脆弱了尤其是当训练样本少而属性数目又很大时。解决方法是使用m估计方法来估计条件概率 P ( X i ∣ Y ) n c m p n m P(X_i|Y)\frac{n_cmp}{nm} P(Xi​∣Y)nmnc​mp​ n 是 Y 中的样本总数 n c 是 Y 中取值 x i 的样本数 m 是称为等价样本大小的参数 p 是用户指定的参数 n是Y中的样本总数\\ n_c是Y中取值x_i的样本数\\ m是称为等价样本大小的参数\\ p是用户指定的参数 n是Y中的样本总数nc​是Y中取值xi​的样本数m是称为等价样本大小的参数p是用户指定的参数 也就是说在分子和分母上同时加上一点儿数使得分数不要为0 多项式模型 基本原理在多项式模型设某文档 d ( t 1 , t 2 , . . . , t k ) t k 是出现过的单词允许重复 d(t_1,t_2,...,t_k)\\ t_k是出现过的单词允许重复 d(t1​,t2​,...,tk​)tk​是出现过的单词允许重复 先验概率 p ( c ) 类 c 下单词总数 整个训练本的单词总数 p(c)\frac{类c下单词总数}{整个训练本的单词总数} p(c)整个训练本的单词总数类c下单词总数​ 条件概率 P ( t k ∣ c ) 类 c 下单词 t k 在各个文档中出现的次数 1 类 c 下单词总数 ∣ v ∣ v 是训练样本的单词表即抽取单词单词出现多次只算一个 此时 m ∣ v ∣ , p 1 ∣ v ∣ P(t_k|c)\frac{类c下单词t_k在各个文档中出现的次数1}{类c下单词总数|v|}\\ v是训练样本的单词表即抽取单词单词出现多次只算一个\\ 此时m|v|,p\frac{1}{|v|} P(tk​∣c)类c下单词总数∣v∣类c下单词tk​在各个文档中出现的次数1​v是训练样本的单词表即抽取单词单词出现多次只算一个此时m∣v∣,p∣v∣1​ 给定一个新样本 d o c : C h i n e s e C h i n e s e C h i n e s e T o k y o J a p a n doc:Chinese\,\,\,Chinese\,\,\,Chinese\,\,\,Tokyo\,\,\,Japan doc:ChineseChineseChineseTokyoJapan 用属性向量表示为 d ( C h i n e s e , C h i n e s e , C h i n e s e , T o k y o , J a p a n ) d(Chinese,Chinese,Chinese,Tokyo,Japan) d(Chinese,Chinese,Chinese,Tokyo,Japan) iddoc类别 in China1Chinese Beijing Chineseyes2Chinese Chinese Shanghaiyes3Chinese Macaoyes4Tokyo Japan Chineseno 伯努利模型 先验概率 p ( c ) 类 c 下文件数 整个训练本的文件总数 p(c)\frac{类c下文件数}{整个训练本的文件总数} p(c)整个训练本的文件总数类c下文件数​ 条件概率 P ( t k ∣ c ) 类 c 下单词 t k 的文件数 1 类 c 下文件数 2 此时 m 2 , p 1 2 P(t_k|c)\frac{类c下单词t_k的文件数1}{类c下文件数2}\\ 此时m2,p\frac{1}{2} P(tk​∣c)类c下文件数2类c下单词tk​的文件数1​此时m2,p21​ p ( t c ∣ c y e s ) ∏ p ( t c ∣ c y e s ) ( 1 − p ( t i ∣ c y e s ) ) p(t_c|cyes)\prod p(t_c|cyes)(1-p(t_i|cyes)) p(tc​∣cyes)∏p(tc​∣cyes)(1−p(ti​∣cyes)) 给定一个新样本 d o c : C h i n e s e C h i n e s e C h i n e s e T o k y o J a p a n doc:Chinese\,\,\,Chinese\,\,\,Chinese\,\,\,Tokyo\,\,\,Japan doc:ChineseChineseChineseTokyoJapan 用属性向量表示为 d ( C h i n e s e , C h i n e s e , C h i n e s e , T o k y o , J a p a n ) d(Chinese,Chinese,Chinese,Tokyo,Japan) d(Chinese,Chinese,Chinese,Tokyo,Japan) iddoc类别 in China1Chinese Beijing Chineseyes2Chinese Chinese Shanghaiyes3Chinese Macaoyes4Tokyo Japan Chineseno 模型比较 二者计算粒度不同多项式以单词为粒度而伯努利以文件为粒度在后验概率计算中多项式只会计算文档d出现过的单词的概率而伯努利则会把所有单词的概率都算进去有出现在文档d中的概率为p没出现的为1-p 运用贝叶斯定理所需概率 P(B)先验P(A|B)类条件密度 但是大部分情况我们并不能获得到如此完善的信息如果可以将类条件密度参数化则可以显著降低难度 例如P(A|B)的正态性就将概率密度估计问题转化为参数估计问题 所以常见的估计有两种 极大似然估计MLE 将参数看作是确定的量只是其值是未知通过极大化所观察的样本概率得到最优的参数接着通过分析得到参数的值 贝叶斯估计 把参数当成服从某种先验概率分布的随机变量对样本进行观测的过程就是把先验概率密度转化成为后验概率密度使得对于每个新样本后验概率密度函数在待估参数的真实值附近形成最大尖峰。 7.3 极大似然估计 优点 当样本数目增加时收敛性质会更好比其他可选择的技术更加简单 基本原理 D c D_c Dc​ 表示训练集D中第c类样本组合的集合样本之间是独立同分布的则参数 θ c \theta_c θc​ 对于数据集的似然是 P ( D c ∣ θ c ) ∏ x ∈ D c P ( x ∣ θ c ) P(D_c|\theta_c)\prod_{x\in D_c}P(x|\theta_c) P(Dc​∣θc​)x∈Dc​∏​P(x∣θc​) 但这样会造成数据的下溢需要对其取对数 L L ( θ c ) log ⁡ P ( D c ∣ θ c ) LL(\theta_c)\log P(D_c|\theta_c) LL(θc​)logP(Dc​∣θc​) 此时我们对对数似然函数的 θ c \theta_c θc​ 求导并令导数为0可求解出 θ ^ c \hat \theta_c θ^c​ 即为使对数似然最大的值记为 θ ^ c a r g max ⁡ θ c L L ( θ c ) \hat \theta_carg\,\max_{\theta_c} LL(\theta_c) θ^c​argθc​max​LL(θc​) 以高斯情况为例x为标量的似然函数计算如下 机器学习中特征向量是多维的这时候密度函数需要发生变化 X [ x 1 , x 2 , . . , x n ] T , μ [ μ 1 , μ 2 , . . . , μ n ] T 多维情况下将方差替换成协方差矩阵 ( ∑ ) X[x_1,x_2,..,x_n]^T,\mu[\mu_1,\mu_2,...,\mu_n]^T\\ 多维情况下将方差替换成协方差矩阵(\sum) X[x1​,x2​,..,xn​]T,μ[μ1​,μ2​,...,μn​]T多维情况下将方差替换成协方差矩阵(∑) f ( X ) 1 ( 2 π ) n ∣ ∑ ∣ 1 2 e − ( X − μ ) T ( X − μ ) 2 ∑ f(X)\frac{1}{(\sqrt{2\pi})^n|\sum|^\frac{1}{2}}e^{-\frac{(X-\mu)^T(X-\mu)}{2\sum}} f(X)(2π ​)n∣∑∣21​1​e−2∑(X−μ)T(X−μ)​ ln ⁡ f ( X ) − 1 2 ln ⁡ [ ( 2 π ) n ∣ ∑ ∣ ] − 1 2 ( X − μ ) T ∑ − 1 ( X − μ ) ∑ − 1 : 协方差矩阵的逆 \ln f(X)-\frac{1}{2}\ln[(2\pi)^n|\sum|]-\frac{1}{2}{(X-\mu)^T\sum^{-1}(X-\mu)}\\ \sum^{-1}:协方差矩阵的逆 lnf(X)−21​ln[(2π)n∣∑∣]−21​(X−μ)T∑−1​(X−μ)∑−1​:协方差矩阵的逆 7.4 贝叶斯网络 贝叶斯网络是一个有向无环图包含两个部分 节点表示随机变量节点间的有向边表示节点间的互相关系 贝叶斯网络BDPD表示一个有向无环图P表示条件概率分布的集合 联合概率分布定义 P ( X ) ∏ i 1 n P ( X i ∣ π i ) X i ( X 1 , X 2 , . . . , X n ) π i : X i 的父节点 P(X)\prod_{i1}^nP(X_i|\pi_i)\\ X_i(X_1,X_2,...,X_n)\\ \pi_i:X_i的父节点 P(X)i1∏n​P(Xi​∣πi​)Xi​(X1​,X2​,...,Xn​)πi​:Xi​的父节点 7.5 半朴素贝叶斯分类器 朴素贝叶斯分类器采用的是属性条件独立性假设但是在现实任务中这个假设往往很难成立所以就产生了半朴素贝叶斯分类器 基本思想适当考虑一部分属性间的相互依赖信息从而既不需要进行完全联合概率计算又不至于彻底忽略比较强的属性依赖关系“独依赖估计”ODE是最常用的一种策略即每个属性在类别之外最多依赖于一个其他属性。以下又提供了两种半朴素贝叶斯分类器所考虑的属性依赖关系。 例如样本集合如下 我们规定脐部的依赖属性为敲声且属性取值为凹陷时依赖敲声为浊响 并且需要对概率进行修正 7.6 EM算法 极大似然估计存在着问题是: 对于许多具体问题不能构造似然函数解析表达式似然函数的表达式过于复杂而导致求解方程组非常困难 所以提出了EM算法。EM算法主要用于非完全数据参数估计它是通过假设隐变量的存在极大化地简化了似然函数方程从而解决了方程求解问题。 观测数据:观测到的随机变量y的独立同分布(IID)样本 Y ( Y 1 , Y 2 , … , Y n ) Y(Y_1,Y_2,…,Y_n) Y(Y1​,Y2​,…,Yn​) 缺失数据:未观测到的随机变量Z的值 Z ( Z 1 , Z 2 . … , Z n ) Z(Z_1,Z_2.…,Z_n) Z(Z1​,Z2​.…,Zn​) 完整数据:包含观测到的随机变量Y和未观测到的随机变量Z的数据,Z(X,Y) Z ( ( X 1 , Y 1 ) , . . , ( X n , Y n ) ) Z((X_1,Y_1),..,(X_n,Y_n)) Z((X1​,Y1​),..,(Xn​,Yn​)) EM算法是一种迭代算法用于含有隐变量的概率模型参数的极大似然估计或极大后验概率估计。 EM算法的每次迭代由两步组成 E步求期望M步求极大 三硬币模型 假设有3枚硬币分别记作A,B,C。这些硬币正面出现的概率概率分别是a,b,c。进行如下掷硬币试验:先掷A根据其结果选出硬币B或C正面选择硬币B反面选硬币C;然后掷选出的硬币掷硬币的结果出现正面记作1出现反面记作0;独立地重复n次试验(这里n10),观测结果如下: 1 , 1 , 0 , 1 , 0 , 0 , 1 , 0 , 1 , 1 1,1,0,1,0,0,1,0,1,1 1,1,0,1,0,0,1,0,1,1 假设只能观测到掷硬币的结果不能观测到掷硬币的过程。问如何估计三硬币正面出现的概率即三硬币模型的参数。 模型可写作 随机变量 y 是观测变量表示一次试验观测的结果是 1 或 0 随机变量 z 是隐变量表示未观测到的掷硬币 A 的结果 θ ( a , b , c ) 是模型参数 随机变量y是观测变量表示一次试验观测的结果是1或0\\ 随机变量z是隐变量表示未观测到的掷硬币A的结果\\ \theta(a,b,c)是模型参数 随机变量y是观测变量表示一次试验观测的结果是1或0随机变量z是隐变量表示未观测到的掷硬币A的结果θ(a,b,c)是模型参数 将观测数据表示为 Y ( y 1 , y 2 , . . . , y n ) T Y(y_1,y_2,...,y_n)^T Y(y1​,y2​,...,yn​)T 未观测数据表示为 Z ( z 1 , z 2 , . . . , z n ) T Z(z_1,z_2,...,z_n)^T Z(z1​,z2​,...,zn​)T 则观测数据的似然函数为 P ( Y ∣ θ ) ∑ Z P ( Z ∣ θ ) P ( Y ∣ Z , θ ) P(Y|\theta)\sum_ZP(Z|\theta)P(Y|Z,\theta) P(Y∣θ)Z∑​P(Z∣θ)P(Y∣Z,θ) 即 P ( Y ∣ θ ) ∏ j 1 n [ a b y j ( 1 − b ) 1 − y j ( 1 − a ) c y j ( 1 − c ) 1 − y j ] P(Y|\theta)\prod_{j1}^n[ab^{y_j}(1-b)^{1-y_j}(1-a)c^{y_j}(1-c)^{1-y_j}] P(Y∣θ)j1∏n​[abyj​(1−b)1−yj​(1−a)cyj​(1−c)1−yj​] 考虑求模型参数的极大似然估计 θ ^ a r g max ⁡ θ log ⁡ P ( Y ∣ θ ) \hat\thetaarg\,\,\max_\theta\,\log P(Y|\theta) θ^argθmax​logP(Y∣θ) 只能通过迭代的方式进行求解 EM算法首先选取参数的初值 θ ( 0 ) ( a ( 0 ) , b ( 0 ) , c ( 0 ) ) \theta^{(0)}(a^{(0)},b^{(0)},c^{(0)}) θ(0)(a(0),b(0),c(0)) 然后通过以下步骤迭代计算参数的估计值直至收敛为止。第i次迭代参数的估计值为 θ ( i ) ( a ( i ) , b ( i ) , c ( i ) ) \theta^{(i)}(a^{(i)},b^{(i)},c^{(i)}) θ(i)(a(i),b(i),c(i)) 第i1次迭代如下 E步计算在模型参数 a ( i ) , b ( i ) , c ( i ) a^{(i)},b^{(i)},c^{(i)} a(i),b(i),c(i) 上标为迭代次数 \color{red}{上标为迭代次数} 上标为迭代次数 下观测数据 y j y_j yj​ 下标为样本编号 \color{red}{下标为样本编号} 下标为样本编号 来自掷到硬币B的概率 P ( z j B ∣ y j , θ ) a ( i ) ( b ( i ) ) y j ( 1 − b ( i ) ) 1 − y j a ( i ) ( b ( i ) ) y j ( 1 − b ( i ) ) 1 − y j ( 1 − a ( i ) ) ( c ( i ) ) y j ( 1 − c ( i ) ) 1 − y j ( 1 ) P(z_jB|y_j,\theta)\frac{a^{(i)}(b^{(i)})^{y_j}(1-b^{(i)})^{1-y_j}}{a^{(i)}(b^{(i)})^{y_j}(1-b^{(i)})^{1-y_j}(1-a^{(i)})(c^{(i)})^{y_j}(1-c^{(i)})^{1-y_j}}\quad(1) P(zj​B∣yj​,θ)a(i)(b(i))yj​(1−b(i))1−yj​(1−a(i))(c(i))yj​(1−c(i))1−yj​a(i)(b(i))yj​(1−b(i))1−yj​​(1) 并把 P ( z j B ∣ y j , θ ) 记作 μ ( j ) 1 − μ ( j ) 即表示为掷到硬币 C 的概率 P(z_jB|y_j,\theta)记作\mu^{(j)}\\ 1-\mu^{(j)}即表示为掷到硬币C的概率 P(zj​B∣yj​,θ)记作μ(j)1−μ(j)即表示为掷到硬币C的概率 计算似然函数的期望 Q ( θ ) P ( Z ∣ Y , θ ) log ⁡ P ( Y , Z ∣ θ ) ∑ i 1 n [ μ i log ⁡ a b y i ( 1 − b ) 1 − y i ( 1 − μ i ) log ⁡ ( 1 − a ) c y i ( 1 − c ) 1 − y i ] ∑ i 1 n { μ i ( log ⁡ a y i log ⁡ b ( 1 − y i ) log ⁡ ( 1 − b ) ) ( 1 − μ i ) ( log ⁡ ( 1 − a ) y i log ⁡ c ( 1 − y i ) log ⁡ ( 1 − c ) ) } ( 2 ) Q(\theta)P(Z|Y,\theta)\log P(Y,Z|\theta) \\\sum_{i1}^n[\mu_i\log ab^{y_i}(1-b)^{1-y_i}(1-\mu_i)\log(1-a)c^{y_i}(1-c)^{1-y_i}]\\ \sum_{i1}^n\{\mu_i(\log a y_i\log b(1-y_i)\log(1-b))\\(1-\mu_i)(\log(1-a) y_i\log c(1-y_i)\log(1-c))\}\quad(2) Q(θ)P(Z∣Y,θ)logP(Y,Z∣θ)i1∑n​[μi​logabyi​(1−b)1−yi​(1−μi​)log(1−a)cyi​(1−c)1−yi​]i1∑n​{μi​(logayi​logb(1−yi​)log(1−b))(1−μi​)(log(1−a)yi​logc(1−yi​)log(1−c))}(2) M步求似然函数的极大值 对a求偏导 ∂ Q ∂ a ∑ i 1 n ( μ i a − 1 − μ i 1 − a ) 1 a ( 1 − a ) ∑ i 1 n ( μ i − a ) 0 1 a ( 1 − a ) ( ∑ i 1 n μ i − n a ) 0 a 1 n ∑ i 1 n μ i \frac{\partial Q}{\partial a}\sum_{i1}^n(\frac{\mu_i}{a}-\frac{1-\mu_i}{1-a})\frac{1}{a(1-a)}\sum_{i1}^n(\mu_i-a)0\\ \frac{1}{a(1-a)}(\sum_{i1}^n\mu_i-na)0\\ a\frac{1}{n}\sum_{i1}^n\mu_i ∂a∂Q​i1∑n​(aμi​​−1−a1−μi​​)a(1−a)1​i1∑n​(μi​−a)0a(1−a)1​(i1∑n​μi​−na)0an1​i1∑n​μi​ 对b求偏导 ∂ Q ∂ b ∑ i 1 n μ i ( y i b − 1 − y i 1 − b ) 1 b ( 1 − b ) ∑ i 1 n μ i ( y i − b ) 0 ∑ i 1 n μ i y i − b ∑ i 1 n μ i 0 b ∑ i 1 n μ i y i ∑ i 1 n μ i \frac{\partial Q}{\partial b}\sum_{i1}^n\mu_i(\frac{y_i}{b}-\frac{1-y_i}{1-b})\frac{1}{b(1-b)}\sum_{i1}^n\mu_i(y_i-b)0\\ \sum_{i1}^n\mu_iy_i-b\sum_{i1}^n\mu_i0\\ b\frac{\sum_{i1}^n\mu_iy_i}{\sum_{i1}^n\mu_i} ∂b∂Q​i1∑n​μi​(byi​​−1−b1−yi​​)b(1−b)1​i1∑n​μi​(yi​−b)0i1∑n​μi​yi​−bi1∑n​μi​0b∑i1n​μi​∑i1n​μi​yi​​ 对c求偏导 ∂ Q ∂ c ∑ i 1 n ( 1 − μ i ) ( y i c − 1 − y i 1 − c ) 1 c ( 1 − c ) ∑ i 1 n ( 1 − μ i ) ( y i − c ) 0 ∑ i 1 n ( 1 − μ i ) y i − c ∑ i 1 n ( 1 − μ i ) 0 c ∑ i 1 n ( 1 − μ i ) y i ∑ i 1 n ( 1 − μ i ) \frac{\partial Q}{\partial c}\sum_{i1}^n(1-\mu_i)(\frac{y_i}{c}-\frac{1-y_i}{1-c})\frac{1}{c(1-c)}\sum_{i1}^n(1-\mu_i)(y_i-c)0\\ \sum_{i1}^n(1-\mu_i)y_i-c\sum_{i1}^n(1-\mu_i)0\\ c\frac{\sum_{i1}^n(1-\mu_i)y_i}{\sum_{i1}^n(1-\mu_i)} ∂c∂Q​i1∑n​(1−μi​)(cyi​​−1−c1−yi​​)c(1−c)1​i1∑n​(1−μi​)(yi​−c)0i1∑n​(1−μi​)yi​−ci1∑n​(1−μi​)0c∑i1n​(1−μi​)∑i1n​(1−μi​)yi​​ 计算完成后可以计算模型参数的新估计值 a ( j 1 ) 1 n ∑ i 1 n μ i ( j 1 ) ( 3 ) a^{(j1)}\frac{1}{n}\sum_{i1}^n\mu_i^{(j1)}\quad (3) a(j1)n1​i1∑n​μi(j1)​(3) b ( j 1 ) ∑ i 1 n μ i ( j 1 ) y i ∑ i 1 n μ i ( j 1 ) ( 4 ) b^{(j1)}\frac{\sum_{i1}^n\mu_i^{(j1)}y_i}{\sum_{i1}^n\mu_i^{(j1)}}\quad (4) b(j1)∑i1n​μi(j1)​∑i1n​μi(j1)​yi​​(4) c ( j 1 ) ∑ i 1 n ( 1 − μ i ( j 1 ) ) y i ∑ i 1 n ( 1 − μ i ( j 1 ) ) ( 5 ) c^{(j1)}\frac{\sum_{i1}^n(1-\mu_i^{(j1)})y_i}{\sum_{i1}^n(1-\mu_i^{(j1)})}\quad (5) c(j1)∑i1n​(1−μi(j1)​)∑i1n​(1−μi(j1)​)yi​​(5) 然后进行计算假设模型参数的初始值为 a ( 0 ) 0.5 , b ( 0 ) 0.5 , c ( 0 ) 0.5 a^{(0)}0.5,b^{(0)}0.5,c^{(0)}0.5 a(0)0.5,b(0)0.5,c(0)0.5 由式1对十次试验进行计算 回顾十次试验结果 : 1 , 1 , 0 , 1 , 0 , 0 , 1 , 0 , 1 , 1 回顾十次试验结果:1,1,0,1,0,0,1,0,1,1 回顾十次试验结果:1,1,0,1,0,0,1,0,1,1 μ 1 ( 1 ) 0.5 × 0. 5 1 × ( 1 − 0.5 ) 1 − 1 0.5 × 0. 5 1 × ( 1 − 0.5 ) 1 − 1 ( 1 − 0.5 ) × 0. 5 1 × ( 1 − 0.5 ) 1 − 1 0.5 \mu_1^{(1)}\frac{0.5\times 0.5^1\times (1-0.5)^{1-1}}{0.5\times 0.5^1\times (1-0.5)^{1-1}(1-0.5)\times 0.5^1\times (1-0.5)^{1-1}}0.5 μ1(1)​0.5×0.51×(1−0.5)1−1(1−0.5)×0.51×(1−0.5)1−10.5×0.51×(1−0.5)1−1​0.5 μ 3 ( 1 ) 0.5 × 0. 5 0 × ( 1 − 0.5 ) 1 − 0 0.5 × 0. 5 0 × ( 1 − 0.5 ) 1 − 0 ( 1 − 0.5 ) × 0. 5 0 × ( 1 − 0.5 ) 1 − 0 0.5 \mu_3^{(1)}\frac{0.5\times 0.5^0\times (1-0.5)^{1-0}}{0.5\times 0.5^0\times (1-0.5)^{1-0}(1-0.5)\times 0.5^0\times (1-0.5)^{1-0}}0.5 μ3(1)​0.5×0.50×(1−0.5)1−0(1−0.5)×0.50×(1−0.5)1−00.5×0.50×(1−0.5)1−0​0.5 经过计算可知 μ j ( 1 ) 0.5 , j 1 , 2 , . . . , 10 \mu_j^{(1)}0.5,\quad j1,2,...,10 μj(1)​0.5,j1,2,...,10 利用345式进行第一次迭代 a ( 1 ) 1 10 ∑ i 1 10 μ i ( 1 ) 0.5 a^{(1)}\frac{1}{10}\sum_{i1}^{10}\mu_i^{(1)}0.5 a(1)101​i1∑10​μi(1)​0.5 b ( 1 ) ∑ i 1 10 μ i ( 1 ) y i ∑ i 1 10 μ i ( 1 ) 0.5 × ( 1 1 0 1 0 0 1 0 1 1 ) 0.5 × 10 0.6 b^{(1)}\frac{\sum_{i1}^{10}\mu_i^{(1)}y_i}{\sum_{i1}^{10}\mu_i^{(1)}}\\ \frac{0.5\times(1101001011)}{0.5\times 10}\\ 0.6 b(1)∑i110​μi(1)​∑i110​μi(1)​yi​​0.5×100.5×(1101001011)​0.6 c ( 1 ) ∑ i 1 10 ( 1 − μ i ( 1 ) ) y i ∑ i 1 10 ( 1 − μ i ( 1 ) ) ( 1 − 0.5 ) × ( 1 1 0 1 0 0 1 0 1 1 ) ( 1 − 0.5 ) × 10 0.6 c^{(1)}\frac{\sum_{i1}^{10}(1-\mu_i^{(1)})y_i}{\sum_{i1}^{10}(1-\mu_i^{(1)})}\\ \frac{(1-0.5)\times(1101001011)}{(1-0.5)\times 10}\\ 0.6 c(1)∑i110​(1−μi(1)​)∑i110​(1−μi(1)​)yi​​(1−0.5)×10(1−0.5)×(1101001011)​0.6 经过一轮计算后再由式1计算可得 μ 1 ( 2 ) 0.5 × ( 0.6 ) 1 × ( 1 − 0.6 ) 1 − 1 0.5 × ( 0.6 ) 1 × ( 1 − 0.6 ) 1 − 1 ( 1 − 0.5 ) × ( 0.6 ) 1 × ( 1 − 0.6 ) 1 − 1 0.5 \mu_1^{(2)}\frac{0.5\times(0.6)^1\times(1-0.6)^{1-1}}{0.5\times(0.6)^1\times(1-0.6)^{1-1}(1-0.5)\times(0.6)^1\times(1-0.6)^{1-1}}\\ 0.5 μ1(2)​0.5×(0.6)1×(1−0.6)1−1(1−0.5)×(0.6)1×(1−0.6)1−10.5×(0.6)1×(1−0.6)1−1​0.5 μ 3 ( 2 ) 0.5 × ( 0.6 ) 0 × ( 1 − 0.6 ) 1 − 0 0.5 × ( 0.6 ) 0 × ( 1 − 0.6 ) 1 − 0 ( 1 − 0.5 ) × ( 0.6 ) 0 × ( 1 − 0.6 ) 1 − 0 0.5 \mu_3^{(2)}\frac{0.5\times(0.6)^0\times(1-0.6)^{1-0}}{0.5\times(0.6)^0\times(1-0.6)^{1-0}(1-0.5)\times(0.6)^0\times(1-0.6)^{1-0}}\\ 0.5 μ3(2)​0.5×(0.6)0×(1−0.6)1−0(1−0.5)×(0.6)0×(1−0.6)1−00.5×(0.6)0×(1−0.6)1−0​0.5 经过计算可知 μ j ( 2 ) 0.5 , j 1 , 2 , . . . , 10 \mu_j^{(2)}0.5,\quad j1,2,...,10 μj(2)​0.5,j1,2,...,10 进行第二次迭代 a ( 2 ) 1 10 ∑ i 1 10 μ i ( 2 ) 0.5 a^{(2)}\frac{1}{10}\sum_{i1}^{10}\mu_i^{(2)}0.5 a(2)101​i1∑10​μi(2)​0.5 b ( 2 ) ∑ i 1 10 μ i ( 2 ) y i ∑ i 1 10 μ i ( 2 ) 0.6 b^{(2)}\frac{\sum_{i1}^{10}\mu_i^{(2)}y_i}{\sum_{i1}^{10}\mu_i^{(2)}}\\ 0.6 b(2)∑i110​μi(2)​∑i110​μi(2)​yi​​0.6 c ( 2 ) ∑ i 1 10 ( 1 − μ i ( 2 ) ) y i ∑ i 1 10 ( 1 − μ i ( 2 ) ) 0.6 c^{(2)}\frac{\sum_{i1}^{10}(1-\mu_i^{(2)})y_i}{\sum_{i1}^{10}(1-\mu_i^{(2)})}\\ 0.6 c(2)∑i110​(1−μi(2)​)∑i110​(1−μi(2)​)yi​​0.6 因为 a ( 1 ) a ( 2 ) , b ( 1 ) b ( 2 ) , c ( 1 ) c ( 2 ) a^{(1)}a^{(2)},b^{(1)}b^{(2)},c^{(1)}c^{(2)} a(1)a(2),b(1)b(2),c(1)c(2) 即达到的平衡所以 a ^ 0.5 , b ^ 0.6 , c ^ 0.6 \hat a0.5,\hat b0.6,\hat c0.6 a^0.5,b^0.6,c^0.6 7.7 EM算法实现 目标估算两个正态分布的均值(方差相同)但现在1000条数据混在了一起 import math import copy import numpy as np import matplotlib.pyplot as plt isdebugFalse创建数据 #指定k个高斯分布参数这里指定k2注意2个高斯分布具有同样均方差Sigma均值分别为Mu1Mu2 def int_data(Sigma,Mu1,Mu2,k,N):global Xglobal Muglobal ExpectationsXnp.zeros((1,N))Munp.random.random(2)#随机初始化均值Expectationsnp.zeros((N,k))for i in range(0,N):if np.random.random(1)0.5:X[0,i]np.random.normal()*SigmaMu1#normal:从正态分布中抽取随机样本else:X[0,i]np.random.normal()*SigmaMu2 #最终生成的X中的数据是两个分布混合的数据我们并不知道数据是来自哪个分布步骤1E步 E [ i ] [ j ] P ( x x i ∣ μ μ j ) P ( x x i ) e − 1 2 σ 2 ( x i − μ j ) 2 ∑ i 1 k e − 1 2 σ 2 ( x i − μ j ) 2 N u m b e r D e n o m E[i][j]\frac{P(xx_i|\mu\muj)}{P(xx_i)}\\ \frac{e^{-\frac{1}{2\sigma^2}(x_i-\mu_j)^2}}{\sum_{i1}^ke^{-\frac{1}{2\sigma^2}(x_i-\mu_j)^2}}\\ \frac{Number}{Denom} E[i][j]P(xxi​)P(xxi​∣μμj)​∑i1k​e−2σ21​(xi​−μj​)2e−2σ21​(xi​−μj​)2​DenomNumber​ #EM算法:步骤1计算E[zij] def e_step(Sigma,k,N):global Xglobal Muglobal Expectationsfor i in range(0,N):Denom0for j in range(0,k):Denommath.exp((-1/(2*(float(Sigma**2))))*(float(X[0,i]-Mu[j]))**2)for j in range(0,k):Numermath.exp((-1/(2*(float(Sigma**2))))*(float(X[0,i]-Mu[j]))**2)Expectations[i,j]Numer/Denom 步骤2M步 μ j ∑ i 1 n E x p e c t a t i o n s [ z i j ] x j ∑ i 1 n E x p e c t a t i o n s [ z i j ] N u m e r D e n o m \mu_j\frac{\sum_{i1}^nExpectations[z_{ij}]x_j}{\sum_{i1}^nExpectations[z_{ij}]}\\ \frac{Numer}{Denom} μj​∑i1n​Expectations[zij​]∑i1n​Expectations[zij​]xj​​DenomNumer​ #EM算法:步骤2求最大化E[zij]的参数Mu def m_step(k,N):global Expectationsglobal Xfor j in range(0,k):Numer0Denom0for i in range(0,N):NumerExpectations[i,j]*X[0,i]DenomExpectations[i,j]Mu[j]Numer/Denom算法运行 #算法迭代iter_num次或达到精度Epsilon停止迭代 def run(Sigma,Mu1,Mu2,k,N,iter_num,Epsilon):#Sigma方差,iter_num迭代次数,Mu1和Mu2是生成数据的均值#N样本数int_data(Sigma,Mu1,Mu2,k,N)print(u初始u1,u2:,Mu)for i in range(iter_num):Old_Mucopy.deepcopy(Mu)#深拷贝e_step(Sigma,k,N)m_step(k,N)print(i,Mu)if sum(abs(Mu-Old_Mu))Epsilon:breakif __name____main__:run(6,40,20,2,1000,100,0.0001)plt.hist(X[0,:],50)plt.show()运行结果 初始u1,u2: [0.29065113 0.21786728] 0 [30.60448153 30.32328553] 1 [31.01065788 29.92567547] 2 [32.52251613 28.41379168] 3 [36.79745623 24.13331471] 4 [40.10662972 20.77667049] 5 [40.47241312 20.351192 ] 6 [40.48060384 20.31459203] 7 [40.47597691 20.30740231] 8 [40.4736702 20.30487205] 9 [40.47270634 20.30385998] 10 [40.47231156 20.30344781] 11 [40.47215027 20.30327955] 12 [40.47208441 20.30321084] 13 [40.47205751 20.30318278]
文章转载自:
http://www.morning.skksz.cn.gov.cn.skksz.cn
http://www.morning.mgwpy.cn.gov.cn.mgwpy.cn
http://www.morning.qttft.cn.gov.cn.qttft.cn
http://www.morning.jkftn.cn.gov.cn.jkftn.cn
http://www.morning.jgcyn.cn.gov.cn.jgcyn.cn
http://www.morning.wdhhz.cn.gov.cn.wdhhz.cn
http://www.morning.xgkxy.cn.gov.cn.xgkxy.cn
http://www.morning.zrnph.cn.gov.cn.zrnph.cn
http://www.morning.ykrss.cn.gov.cn.ykrss.cn
http://www.morning.gqflj.cn.gov.cn.gqflj.cn
http://www.morning.pwfwk.cn.gov.cn.pwfwk.cn
http://www.morning.ryywf.cn.gov.cn.ryywf.cn
http://www.morning.bwxph.cn.gov.cn.bwxph.cn
http://www.morning.ctlzf.cn.gov.cn.ctlzf.cn
http://www.morning.ylsxk.cn.gov.cn.ylsxk.cn
http://www.morning.xnpj.cn.gov.cn.xnpj.cn
http://www.morning.spqbp.cn.gov.cn.spqbp.cn
http://www.morning.nlcw.cn.gov.cn.nlcw.cn
http://www.morning.rckdq.cn.gov.cn.rckdq.cn
http://www.morning.qfkxj.cn.gov.cn.qfkxj.cn
http://www.morning.huxinzuche.cn.gov.cn.huxinzuche.cn
http://www.morning.mlwpr.cn.gov.cn.mlwpr.cn
http://www.morning.psxwc.cn.gov.cn.psxwc.cn
http://www.morning.xtqld.cn.gov.cn.xtqld.cn
http://www.morning.pqktp.cn.gov.cn.pqktp.cn
http://www.morning.wpjst.cn.gov.cn.wpjst.cn
http://www.morning.xknmn.cn.gov.cn.xknmn.cn
http://www.morning.dfqmy.cn.gov.cn.dfqmy.cn
http://www.morning.mgbsp.cn.gov.cn.mgbsp.cn
http://www.morning.rhchr.cn.gov.cn.rhchr.cn
http://www.morning.zrgsg.cn.gov.cn.zrgsg.cn
http://www.morning.hnrls.cn.gov.cn.hnrls.cn
http://www.morning.mzmqg.cn.gov.cn.mzmqg.cn
http://www.morning.lmfmd.cn.gov.cn.lmfmd.cn
http://www.morning.yrck.cn.gov.cn.yrck.cn
http://www.morning.gdljq.cn.gov.cn.gdljq.cn
http://www.morning.skdrp.cn.gov.cn.skdrp.cn
http://www.morning.xhrws.cn.gov.cn.xhrws.cn
http://www.morning.yrbqy.cn.gov.cn.yrbqy.cn
http://www.morning.hnmbq.cn.gov.cn.hnmbq.cn
http://www.morning.lhzqn.cn.gov.cn.lhzqn.cn
http://www.morning.zdnrb.cn.gov.cn.zdnrb.cn
http://www.morning.redhoma.com.gov.cn.redhoma.com
http://www.morning.kgmkl.cn.gov.cn.kgmkl.cn
http://www.morning.llfwg.cn.gov.cn.llfwg.cn
http://www.morning.gwmjy.cn.gov.cn.gwmjy.cn
http://www.morning.tfrlj.cn.gov.cn.tfrlj.cn
http://www.morning.hxbps.cn.gov.cn.hxbps.cn
http://www.morning.kspfq.cn.gov.cn.kspfq.cn
http://www.morning.ptslx.cn.gov.cn.ptslx.cn
http://www.morning.kpbgvaf.cn.gov.cn.kpbgvaf.cn
http://www.morning.clfct.cn.gov.cn.clfct.cn
http://www.morning.ssfq.cn.gov.cn.ssfq.cn
http://www.morning.jsdntd.com.gov.cn.jsdntd.com
http://www.morning.xmjzn.cn.gov.cn.xmjzn.cn
http://www.morning.snnkt.cn.gov.cn.snnkt.cn
http://www.morning.ltrms.cn.gov.cn.ltrms.cn
http://www.morning.xqcgb.cn.gov.cn.xqcgb.cn
http://www.morning.skql.cn.gov.cn.skql.cn
http://www.morning.chehb.com.gov.cn.chehb.com
http://www.morning.ykxnp.cn.gov.cn.ykxnp.cn
http://www.morning.nthyjf.com.gov.cn.nthyjf.com
http://www.morning.fhtmp.cn.gov.cn.fhtmp.cn
http://www.morning.nzlqt.cn.gov.cn.nzlqt.cn
http://www.morning.tnhmp.cn.gov.cn.tnhmp.cn
http://www.morning.wqpm.cn.gov.cn.wqpm.cn
http://www.morning.tfzjl.cn.gov.cn.tfzjl.cn
http://www.morning.yysqz.cn.gov.cn.yysqz.cn
http://www.morning.mypxm.com.gov.cn.mypxm.com
http://www.morning.dxxnq.cn.gov.cn.dxxnq.cn
http://www.morning.rhlhk.cn.gov.cn.rhlhk.cn
http://www.morning.xxwl1.com.gov.cn.xxwl1.com
http://www.morning.fppzc.cn.gov.cn.fppzc.cn
http://www.morning.drrt.cn.gov.cn.drrt.cn
http://www.morning.gwkjg.cn.gov.cn.gwkjg.cn
http://www.morning.gfznl.cn.gov.cn.gfznl.cn
http://www.morning.jzgxp.cn.gov.cn.jzgxp.cn
http://www.morning.gxtbn.cn.gov.cn.gxtbn.cn
http://www.morning.pwzzk.cn.gov.cn.pwzzk.cn
http://www.morning.tbqxh.cn.gov.cn.tbqxh.cn
http://www.tj-hxxt.cn/news/263782.html

相关文章:

  • wordpress做视频站好wordpress 微信 主题制作
  • 网站建设合同标的怎么写网站建设费摊销年限
  • html5个性个人网站wordpress主题开发教材
  • 自己建网站卖东西怎么样手机登陆网页版微信
  • 上饶做网站哪家好国际企业网站建设
  • 云南建设厅网站职称评定品牌网站建设有哪些内容
  • 郑州哪有做网站的免费域名freenom
  • 长春网站设计制作培训什么是网站改版
  • 做汽车团购网站有哪些怎么做网站注册的网页
  • 网站关键词排名提高只用html5做网站
  • ui个人作品集网站中航建设集团网站
  • 能浏览外国网页的浏览器网站改版后seo该怎么做
  • 企业网站建设模拟实验wordpress 执行sql
  • 网站产品介绍页面的布局方案工作的意义
  • 新干网站新干今年有哪些重大建设衡水安徽网站建设
  • 天津制作个人建站少儿编程加盟哪家好
  • 代做网站修改维护创意设计执行提案
  • 网站建设设计思想淮安市网站建设
  • 哪个行业最喜欢做网站2017年网站开发用什么语言
  • 如何在360网站上做软文推广注册网站做网销
  • 我想创个网站邯郸wap网站建设报价
  • 企业网站建设合同书模板石铜路网站建设
  • 电子商务网站的数据库怎么做深圳网站建设ucreator
  • 搭建网站上传文件seo网站外包
  • 做网站需要多少钱一年大型做网站
  • 聊城做网站的公司效果做海报找图片的网站
  • 电商网站前台功能模块怎样做信息收费网站
  • 创建网站目录结构应遵循的方法宁夏网站建设多少钱
  • 电商类网站建设需要多少钱做学术研究的网站
  • 免费推广网站都有哪些自己做的图片哪个网站可以出售