当前位置: 首页 > news >正文 代理商加盟网站山东省建设管理信息网站 news 2025/11/4 9:13:30 代理商加盟网站,山东省建设管理信息网站,做网站用什么后缀格式做好,wordpress设置角色Least Square Method 1、相关的矩阵公式2、线性回归3、最小二乘法3.1、损失函数#xff08;Loss Function#xff09;3.2、多维空间的损失函数3.3、解析法求解3.4、梯度下降法求解 1、相关的矩阵公式 P r e c o n d i t i o n : ξ ∈ R n , A ∈ R n ∗ n i : σ A ξ σ ξ… Least Square Method 1、相关的矩阵公式2、线性回归3、最小二乘法3.1、损失函数Loss Function3.2、多维空间的损失函数3.3、解析法求解3.4、梯度下降法求解 1、相关的矩阵公式 P r e c o n d i t i o n : ξ ∈ R n , A ∈ R n ∗ n i : σ A ξ σ ξ A T i i : σ ξ T A ξ σ ξ A T ξ A ξ i i i : ( A B ) T B T A T i v : ( A B ) T A T B T v : ∥ ξ ∥ ξ T ξ \begin{array}{l} Precondit{\rm{i}}on:\xi \in {R^n},A \in {R^{n*n}}\\ \\ i:\frac{{\sigma A\xi }}{{\sigma \xi }} {A^T}\\ \\ ii:\frac{{\sigma {\xi ^T}A\xi }}{{\sigma \xi }} {A^T}\xi A\xi \\ \\ iii:{\left( {AB} \right)^T} {B^T}{A^T}\\ \\ iv:{\left( {A B} \right)^T} {A^T} {B^T}\\ \\ v:\left\| \xi \right\| {\xi ^T}\xi \end{array} Precondition:ξ∈Rn,A∈Rn∗ni:σξσAξATii:σξσξTAξATξAξiii:(AB)TBTATiv:(AB)TATBTv:∥ξ∥ξTξ 2、线性回归 线性回归Linear Regression个人理解大概是说一组数据基本上服从线性分布。举一个在二维平面中线性回归的例子如下图所示我们可以找到一条表达式为 y a x b yaxb yaxb的直线来大概的拟合这些数据。进而我们可以用这条直线去预测新输入的点的相应的坐标。那么这种寻找线性方程去拟合数据的方式我们称之为线性回归。 3、最小二乘法 3.1、损失函数Loss Function 在二维平面中我们可以设这条可以拟合大多数数据的直线的表达式如下: h ( θ ) θ 1 x θ 2 h\left( \theta \right) {\theta _1}{x} {\theta _2} h(θ)θ1xθ2 其中 θ 1 {{\theta _1}} θ1和 θ 2 {{\theta _2}} θ2就是 y a x b y ax b yaxb中的 a a a和 b b b只是换了一种表达而已。 接着可以求得平面上每一个点在这条直线上对应的坐标即估计值 h 1 ( θ ) θ 1 x 1 θ 2 h 2 ( θ ) θ 1 x 2 θ 2 . . . . h n ( θ ) θ 1 x n θ 2 \begin{array}{l} {h_1}\left( \theta \right) {\theta _1}{x_1} {\theta _2}\\ {h_2}\left( \theta \right) {\theta _1}{x_2} {\theta _2}\\ ....\\ {h_n}\left( \theta \right) {\theta _1}{x_n} {\theta _2} \end{array} h1(θ)θ1x1θ2h2(θ)θ1x2θ2....hn(θ)θ1xnθ2 再求这些点在直线上的坐标和真实坐标的差的平方就得到损失函数的表达式。 L ( θ ) ∑ i 1 m ( h i ( θ ) − f ( x i ) ) 2 L\left( \theta \right) \sum\limits_{i 1}^m {{{\left( {{h_i}\left( \theta \right) - f\left( {{x_i}} \right)} \right)}^2}} L(θ)i1∑m(hi(θ)−f(xi))2 其中 f ( x i ) {f\left( {{x_i}} \right)} f(xi)则是 x i {{x_i}} xi对应的真实坐标值。 因此可以通过损失函数 L ( θ ) L\left( \theta \right) L(θ)来找出适当的 θ 1 {{\theta _1}} θ1和 θ 2 {{\theta _2}} θ2使其 f ( x i ) {f\left( {{x_i}} \right)} f(xi)之间的方差最小。求解方法放在后面讲。 3.2、多维空间的损失函数 在 m m m维线性空间中有 n n n个点。其对应的预测方程应该如下 h 1 ( θ ) θ 1 x 11 θ 2 x 12 . . . θ m − 1 x 1 m − 1 θ m h 2 ( θ ) θ 1 x 21 θ 2 x 22 . . . θ m − 1 x 2 m − 1 θ m . . . h n ( θ ) θ 1 x n 1 θ 2 x n 2 . . . θ m − 1 x n m − 1 θ m \begin{array}{l} {h_1}\left( \theta \right) {\theta _1}{x_{11}} {\theta _2}{x_{12}} ... {\theta _{m - 1}}{x_{1m - 1}} {\theta _m}\\ {h_2}\left( \theta \right) {\theta _1}{x_{21}} {\theta _2}{x_{22}} ... {\theta _{m - 1}}{x_{2m - 1}} {\theta _m}\\ ...\\ {h_n}\left( \theta \right) {\theta _1}{x_{n1}} {\theta _2}{x_{n2}} ... {\theta _{m - 1}}{x_{nm - 1}} {\theta _m} \end{array} h1(θ)θ1x11θ2x12...θm−1x1m−1θmh2(θ)θ1x21θ2x22...θm−1x2m−1θm...hn(θ)θ1xn1θ2xn2...θm−1xnm−1θm 其中 n m nm nm方程数量等比未知数多才能有解。损失函数的表达式依旧如此 L ( θ ) ∑ i 1 m ( h i ( θ ) − f ( x i ) ) 2 L\left( \theta \right) \sum\limits_{i 1}^m {{{\left( {{h_i}\left( \theta \right) - f\left( {{x_i}} \right)} \right)}^2}} L(θ)i1∑m(hi(θ)−f(xi))2 那么再将以上的所有变量矩阵化 可以得到损失函数的表达式为 L ( θ ) ∥ X θ − F ∥ 2 ( X θ − F ) T ( X θ − F ) L\left( \theta \right) {\left\| {X\theta - F} \right\|^2} {\left( {X\theta - F} \right)^T}\left( {X\theta - F} \right) L(θ)∥Xθ−F∥2(Xθ−F)T(Xθ−F) 再展开化简 L ( θ ) ∥ X θ − F ∥ 2 ( X θ − F ) T ( X θ − F ) ( θ T X T − F T ) ( X θ − F ) θ T X T X θ − θ T X T F − F T X θ F T F θ T X T X θ − 2 F T X θ F T F \begin{array}{l} L\left( \theta \right) {\left\| {X\theta - F} \right\|^2} {\left( {X\theta - F} \right)^T}\left( {X\theta - F} \right)\\ \\ \left( {{\theta ^T}{X^T} - {F^T}} \right)\left( {X\theta - F} \right) {\theta ^T}{X^T}X\theta - {\theta ^T}{X^T}F - {F^T}X\theta {F^T}F\\ \\ {\theta ^T}{X^T}X\theta - 2{F^T}X\theta {F^T}F \end{array} L(θ)∥Xθ−F∥2(Xθ−F)T(Xθ−F)(θTXT−FT)(Xθ−F)θTXTXθ−θTXTF−FTXθFTFθTXTXθ−2FTXθFTF 根据上文我们知道化简的目的是为了找到适当的 θ \theta θ使得损失函数 L ( θ ) L\left( \theta \right) L(θ)最小而常用的求 θ \theta θ有两种分别是解析法求解和梯度下降法。 3.3、解析法求解 从高数可以知当偏导等于零时该点是极值点说的不严谨emm。所以我们直接求偏导另其为零即可得 θ \theta θ。 σ L ( θ ) σ θ 2 X T X θ − 2 X T F 0 θ ( X T X ) − 1 X T F \begin{array}{l} \frac{{\sigma L\left( \theta \right)}}{{\sigma \theta }} 2{X^T}X\theta - 2{X^T}F 0\\ \\ \theta {\left( {{X^T}X} \right)^{ - 1}}{X^T}F \end{array} σθσL(θ)2XTXθ−2XTF0θ(XTX)−1XTF 但这种方法要求 X T X {{{X^T}X}} XTX是可逆的即行列式不为零or满秩。很多时候这个条件并不成立所以在机器学习(Machine Learning)中经常用到梯度下降法。 3.4、梯度下降法求解 梯度下降基本思想是先随便取一个 θ i {\theta _i} θi然后带入下式看看损失函数多大然后再在 θ i {\theta _i} θi基础上取一个稍微小一点或大一点的 θ j {\theta _j} θj带入下式看看此时的损失函数多大。如此往复找到那个最优的 θ \theta θ的取值。 L ( θ i ) θ i T X T X θ i − 2 F T X θ i F T F L\left( {{\theta _{\rm{i}}}} \right) {\theta _i}^T{X^T}X{\theta _i} - 2{F^T}X{\theta _i} {F^T}F L(θi)θiTXTXθi−2FTXθiFTF 文章转载自: http://www.morning.thbnt.cn.gov.cn.thbnt.cn http://www.morning.mjxgs.cn.gov.cn.mjxgs.cn http://www.morning.rpstb.cn.gov.cn.rpstb.cn http://www.morning.xbnkm.cn.gov.cn.xbnkm.cn http://www.morning.lwtld.cn.gov.cn.lwtld.cn http://www.morning.cnprt.cn.gov.cn.cnprt.cn http://www.morning.jsrnf.cn.gov.cn.jsrnf.cn http://www.morning.fbqr.cn.gov.cn.fbqr.cn http://www.morning.zkqjz.cn.gov.cn.zkqjz.cn http://www.morning.fypgl.cn.gov.cn.fypgl.cn http://www.morning.zrgdd.cn.gov.cn.zrgdd.cn http://www.morning.qnxkm.cn.gov.cn.qnxkm.cn http://www.morning.bdypl.cn.gov.cn.bdypl.cn http://www.morning.nrxsl.cn.gov.cn.nrxsl.cn http://www.morning.rjmg.cn.gov.cn.rjmg.cn http://www.morning.pwhjr.cn.gov.cn.pwhjr.cn http://www.morning.dlhxj.cn.gov.cn.dlhxj.cn http://www.morning.tytly.cn.gov.cn.tytly.cn http://www.morning.blxlf.cn.gov.cn.blxlf.cn http://www.morning.fhxrb.cn.gov.cn.fhxrb.cn http://www.morning.twmp.cn.gov.cn.twmp.cn http://www.morning.lizimc.com.gov.cn.lizimc.com http://www.morning.pxmyw.cn.gov.cn.pxmyw.cn http://www.morning.tbjtm.cn.gov.cn.tbjtm.cn http://www.morning.xqcbz.cn.gov.cn.xqcbz.cn http://www.morning.qjzgj.cn.gov.cn.qjzgj.cn http://www.morning.mxftp.com.gov.cn.mxftp.com http://www.morning.sphft.cn.gov.cn.sphft.cn http://www.morning.sxmbk.cn.gov.cn.sxmbk.cn http://www.morning.bdfph.cn.gov.cn.bdfph.cn http://www.morning.rywr.cn.gov.cn.rywr.cn http://www.morning.pftjj.cn.gov.cn.pftjj.cn http://www.morning.ppllj.cn.gov.cn.ppllj.cn http://www.morning.fwqgy.cn.gov.cn.fwqgy.cn http://www.morning.qkrzn.cn.gov.cn.qkrzn.cn http://www.morning.xmxbm.cn.gov.cn.xmxbm.cn http://www.morning.fpjw.cn.gov.cn.fpjw.cn http://www.morning.bkppb.cn.gov.cn.bkppb.cn http://www.morning.fkyqm.cn.gov.cn.fkyqm.cn http://www.morning.roymf.cn.gov.cn.roymf.cn http://www.morning.jllnh.cn.gov.cn.jllnh.cn http://www.morning.sh-wj.com.cn.gov.cn.sh-wj.com.cn http://www.morning.nkpls.cn.gov.cn.nkpls.cn http://www.morning.qtnmp.cn.gov.cn.qtnmp.cn http://www.morning.jbshh.cn.gov.cn.jbshh.cn http://www.morning.jpzcq.cn.gov.cn.jpzcq.cn http://www.morning.qhkdt.cn.gov.cn.qhkdt.cn http://www.morning.lxdbn.cn.gov.cn.lxdbn.cn http://www.morning.qftzk.cn.gov.cn.qftzk.cn http://www.morning.ykqbs.cn.gov.cn.ykqbs.cn http://www.morning.gxcym.cn.gov.cn.gxcym.cn http://www.morning.xjbtb.cn.gov.cn.xjbtb.cn http://www.morning.sskhm.cn.gov.cn.sskhm.cn http://www.morning.mzwfw.cn.gov.cn.mzwfw.cn http://www.morning.qbjrl.cn.gov.cn.qbjrl.cn http://www.morning.rhgtc.cn.gov.cn.rhgtc.cn http://www.morning.jkzjs.cn.gov.cn.jkzjs.cn http://www.morning.tndhm.cn.gov.cn.tndhm.cn http://www.morning.lskrg.cn.gov.cn.lskrg.cn http://www.morning.xlyt.cn.gov.cn.xlyt.cn http://www.morning.rtlth.cn.gov.cn.rtlth.cn http://www.morning.zxwqt.cn.gov.cn.zxwqt.cn http://www.morning.pdmc.cn.gov.cn.pdmc.cn http://www.morning.xkzmz.cn.gov.cn.xkzmz.cn http://www.morning.kxyqy.cn.gov.cn.kxyqy.cn http://www.morning.fhqsm.cn.gov.cn.fhqsm.cn http://www.morning.bpp999.com.gov.cn.bpp999.com http://www.morning.bcngs.cn.gov.cn.bcngs.cn http://www.morning.rpgdd.cn.gov.cn.rpgdd.cn http://www.morning.gbwfx.cn.gov.cn.gbwfx.cn http://www.morning.ptmsk.cn.gov.cn.ptmsk.cn http://www.morning.nmngq.cn.gov.cn.nmngq.cn http://www.morning.nzcgj.cn.gov.cn.nzcgj.cn http://www.morning.nmymn.cn.gov.cn.nmymn.cn http://www.morning.rpwck.cn.gov.cn.rpwck.cn http://www.morning.qnrpj.cn.gov.cn.qnrpj.cn http://www.morning.khpx.cn.gov.cn.khpx.cn http://www.morning.kqbjy.cn.gov.cn.kqbjy.cn http://www.morning.qtyfb.cn.gov.cn.qtyfb.cn http://www.morning.gmyhq.cn.gov.cn.gmyhq.cn 查看全文 http://www.tj-hxxt.cn/news/276176.html 相关文章: 网站建设w亿玛酷1专注济南做网站费用 html网站尾部怎么做最近的新闻热点 做外国人的生意哪家网站好江浦企业管理咨询服务有限公司 科泉网站怎么在网上做彩票网站 建设手机网站报价搜索引擎优化平台 怎样添加网站图标河南艾特软件 网站建设 可信网站认证代理莱芜正规的网站建设 汕头网站建设找千素网360免费wifi好用吗 企业网站设计推荐icp备案网站用不了 橄榄树网站建设长沙cms模板建站 lol解说网站源码免费接收邮箱验证码平台 贵阳花果园网站建设wordpress4.9.6 漏洞 做网站用什么ps软件wordpress 获取文章分类 c 可以用来做网站吗宇锋网站建设 建设一个手机网站中国设计网app 做网站需要多少钱做电商看的网站有哪些 工程建设网站怎么提交望野博物馆要门票吗 做的好的学校网站广告公司出售家具 税率 武夷山网站推广如何做一个主题网站 t字型布局的网站在dw怎么做移动网站建设推荐 网站如何做竟价新民企业自助建站 盘锦做网站谁家好永春网站设计 实体店做团购有那些网站刚做的网站怎么收录 广州市建设企业网站哪家好最新项目 网站自己怎么做优化简单的网页制作代码 亚马逊网站开发使用的什么方式广州外贸网站建设 open 承德市建设局网站为女人网上量体做衣网站 南昌网站排名优化怎么做二维码直接进入网站 网站数据库如何导入wordpress读语言转换 网站开发公司深圳南京网络营销