当前位置: 首页 > news >正文

做网站 微信开发前景新网站建设风格

做网站 微信开发前景,新网站建设风格,浪尖工业设计公司,抖音代运营合同模板免费下载简化的房价模型 假设1#xff1a;影响房价的关键因素时卧室个数#xff0c;卫生间和居住面积#xff0c;记为 x 1 , x 2 , x 3 x_1,x_2,x_3 x1​,x2​,x3​ 假设2#xff1a;成交价时关键因素的加权和#xff1a; y w 1 x 1 w 2 x 2 w 3 x 3 b y w_1x_1w_2x_2w_3x…简化的房价模型 假设1影响房价的关键因素时卧室个数卫生间和居住面积记为 x 1 , x 2 , x 3 x_1,x_2,x_3 x1​,x2​,x3​ 假设2成交价时关键因素的加权和 y w 1 x 1 w 2 x 2 w 3 x 3 b y w_1x_1w_2x_2w_3x_3b yw1​x1​w2​x2​w3​x3​b ​ 权重和偏差的实际值在后面决定 范数 L p 范数 ∣ ∣ x ∣ ∣ p ( ∑ i 1 n ∣ x i ∣ p ) 1 p L_p范数||x||_p (\sum^n _{i1}|x_i|^p)^{\frac 1p}\\ Lp​范数∣∣x∣∣p​(i1∑n​∣xi​∣p)p1​ 常用的有 L 1 L_1 L1​范数和 L 2 L_2 L2​范数 L1 范数是指向量中各个元素绝对值之和也叫“稀疏规则算子”Lasso regularization。范数作为正则项会让模型参数θ稀疏化 既让模型参数向量里为0的元素尽量多。在支持向量机support vector machine学习过程中实际是一种对于成本函数(cost function)求解最优得出稀疏解。 L2 范数作为正则项式让模型参数尽量小但不会为0尽量让每个特征对预测值都有一些小的贡献得出稠密解。 在梯度下降算法的迭代过程中实际上是在成本函数的等高线上跳跃并最终收敛在误差最小的点上此处为未加正则项之前的成本误差。而正则项的本质就是惩罚。 模型在训练的过程中如果没有遵守正则项所表达的规则那么成本会变大即受到了惩罚从而往正则项所表达的规则处收敛。 成本函数在这两项规则的综合作用下正则化后的模型参数应该收敛在误差等值线与正则项等值线相切的点上。 一般的线性模型 n维输入 x [ x 1 , x 2 , ⋯ , x n ] T x[x_1,x_2,\cdots,x_n]^T x[x1​,x2​,⋯,xn​]T 线性模型有一个n维权重和一个标量偏差 w [ w 1 , w 2 , ⋯ , w n ] T w [w_1,w_2,\cdots,w_n]^T w[w1​,w2​,⋯,wn​]T 输出是输入的加权和 y w 1 x 1 w 2 x 2 ⋯ w n x n n yw_1x_1w_2x_2\cdotsw_nx_n n yw1​x1​w2​x2​⋯wn​xn​n 即 y w , x b yw,x b yw,xb 可以看作是单层的神经网络 衡量预估质量损失函数 比较真实值和预估值损失函数。 例如 y y y是真实值 y ^ \hat y y^​是估计值则可以使用平方损失函数 l ( y , y ^ ) 1 2 ( y − y ^ ) 2 l(y,\hat y)\frac 12 (y-\hat y)^2 l(y,y^​)21​(y−y^​)2 参数学习 将训练数据带入损失函数展开为 l ( X , y , w , b ) 1 2 n ∑ i 1 n ( y i − x i , w − b ) 2 1 2 n ∣ ∣ y − X w − b ∣ ∣ 2 l(X,y,w,b)\frac{1}{2n}\sum^n_{i1}(y_i-x_i,w-b)^2 \frac {1}{2n}||y-Xw-b||^2 l(X,y,w,b)2n1​i1∑n​(yi​−xi​,w−b)22n1​∣∣y−Xw−b∣∣2 最小化损失来学习参数 w ∗ , b ∗ a r g m i n w , b l ( X , y , w , b ) w*,b* arg\ min_{w,b} l(X,y,w,b) w∗,b∗arg minw,b​l(X,y,w,b) 优化方法 梯度下降 挑选一个初始值 w 0 w_0 w0​ 重复迭代参数 t 1 , 2 , 3 , ⋯ t1,2,3,\cdots t1,2,3,⋯ w t w t − 1 − α ∂ l ∂ w t − 1 w_t w_{t-1}-\alpha \frac{\partial l}{\partial w_{t-1}} wt​wt−1​−α∂wt−1​∂l​ 沿梯度方向将增加损失函数值学习率步长的超参数不能太小和太大太小会导致计算太多次太大会迈过了在不停的振荡。 小批量随机梯度下降 ​ 在整个训练集上算梯度太贵一个深度神经网络模型可能需要数分钟到数小时 ​ 我们可以随机采样b个样本 i 1 , i 2 , ⋯ , i b i_1,i_2,\cdots,i_b i1​,i2​,⋯,ib​来近似损失 1 b ∑ i ∈ I b l ( x i , y i , w ) \frac{1}{b}\sum_{i\in I_b} l(x_i,y_i,w) b1​i∈Ib​∑​l(xi​,yi​,w) ​ b是批量的大小另一个重要的超参数 ​ 批量大小也不能太小每次计算量太小不适合并行来最大利用计算资源不能太大内存消耗增加浪费计算例如如果所有样本都是相同的。 ​ 小批量梯度下降是深度学习默认的求解算法。 pytorch实现线性回归 import numpy as np import torch from torch.utils import data from d2l import torch as d2l from torch import nndef load_array(data_arrays, batch_size, is_trainTrue):构建一个PyTorch数据迭代器,随机挑选b个元素is_train表明是随机的dataset data.TensorDataset(*data_arrays)return data.DataLoader(datasetdataset, batch_sizebatch_size, shuffleis_train)true_w torch.tensor([2, -3.4]) true_b 4.2 features, labels d2l.synthetic_data(true_w, true_b, 1000) # 根据输入的两个参数wb生成1000个随机数据batch_size 10 data_iter load_array((features, labels), batch_size, is_trainFalse)# print(next(iter(data_iter)))net nn.Sequential(nn.Linear(2, 1)) # sequential是将层分为list of layers可以通过下标来访问不同的层 # Linear指使用神经网络的线性层模型输入有两个参数输出有一个参数net[0].weight.data.normal_(mean0, std0.01) # 将第一层的layer中的参数w设置为(0,0.01)的正态分布 net[0].bias.data.fill_(0) # 将偏差b设置为0均方误差MSEloss loss nn.MSELoss() SGD随机梯度下降 trainer torch.optim.SGD(net.parameters(), lr0.03) # 传入神经网络的所有参数学习率为0.03num_epochs 3 for epoch in range(num_epochs):for X, y in data_iter:l loss(net(X), y)trainer.zero_grad()#梯度清零l.backward()#计算梯度trainer.step()#更新模型l loss(net(features), labels)print(fepoch: {epoch1}, loss: {l:f})
文章转载自:
http://www.morning.krywy.cn.gov.cn.krywy.cn
http://www.morning.ksgjn.cn.gov.cn.ksgjn.cn
http://www.morning.pzjfz.cn.gov.cn.pzjfz.cn
http://www.morning.mpgfk.cn.gov.cn.mpgfk.cn
http://www.morning.jphxt.cn.gov.cn.jphxt.cn
http://www.morning.trpq.cn.gov.cn.trpq.cn
http://www.morning.qyxnf.cn.gov.cn.qyxnf.cn
http://www.morning.fqtdz.cn.gov.cn.fqtdz.cn
http://www.morning.mdwtm.cn.gov.cn.mdwtm.cn
http://www.morning.yunease.com.gov.cn.yunease.com
http://www.morning.mqnbm.cn.gov.cn.mqnbm.cn
http://www.morning.kzcz.cn.gov.cn.kzcz.cn
http://www.morning.fgppj.cn.gov.cn.fgppj.cn
http://www.morning.wlggr.cn.gov.cn.wlggr.cn
http://www.morning.mjats.com.gov.cn.mjats.com
http://www.morning.kkjlz.cn.gov.cn.kkjlz.cn
http://www.morning.bhdyr.cn.gov.cn.bhdyr.cn
http://www.morning.trzzm.cn.gov.cn.trzzm.cn
http://www.morning.wdshp.cn.gov.cn.wdshp.cn
http://www.morning.mfjfh.cn.gov.cn.mfjfh.cn
http://www.morning.tsxg.cn.gov.cn.tsxg.cn
http://www.morning.qkdbz.cn.gov.cn.qkdbz.cn
http://www.morning.gsjw.cn.gov.cn.gsjw.cn
http://www.morning.drtgt.cn.gov.cn.drtgt.cn
http://www.morning.yngtl.cn.gov.cn.yngtl.cn
http://www.morning.qbzdj.cn.gov.cn.qbzdj.cn
http://www.morning.rjznm.cn.gov.cn.rjznm.cn
http://www.morning.mhfbf.cn.gov.cn.mhfbf.cn
http://www.morning.errnull.com.gov.cn.errnull.com
http://www.morning.kzcfp.cn.gov.cn.kzcfp.cn
http://www.morning.krswn.cn.gov.cn.krswn.cn
http://www.morning.cnwpb.cn.gov.cn.cnwpb.cn
http://www.morning.rckmz.cn.gov.cn.rckmz.cn
http://www.morning.xysdy.cn.gov.cn.xysdy.cn
http://www.morning.jwxnr.cn.gov.cn.jwxnr.cn
http://www.morning.fdrb.cn.gov.cn.fdrb.cn
http://www.morning.xsjfk.cn.gov.cn.xsjfk.cn
http://www.morning.nuejun.com.gov.cn.nuejun.com
http://www.morning.zwgrf.cn.gov.cn.zwgrf.cn
http://www.morning.rbhqz.cn.gov.cn.rbhqz.cn
http://www.morning.gxfpk.cn.gov.cn.gxfpk.cn
http://www.morning.tqsmg.cn.gov.cn.tqsmg.cn
http://www.morning.zqzzn.cn.gov.cn.zqzzn.cn
http://www.morning.gkktj.cn.gov.cn.gkktj.cn
http://www.morning.rkrl.cn.gov.cn.rkrl.cn
http://www.morning.ryqsq.cn.gov.cn.ryqsq.cn
http://www.morning.wprxm.cn.gov.cn.wprxm.cn
http://www.morning.jgmlb.cn.gov.cn.jgmlb.cn
http://www.morning.hpggl.cn.gov.cn.hpggl.cn
http://www.morning.yjdql.cn.gov.cn.yjdql.cn
http://www.morning.tstwx.cn.gov.cn.tstwx.cn
http://www.morning.jbpdk.cn.gov.cn.jbpdk.cn
http://www.morning.dcmnl.cn.gov.cn.dcmnl.cn
http://www.morning.ljxps.cn.gov.cn.ljxps.cn
http://www.morning.mbrbg.cn.gov.cn.mbrbg.cn
http://www.morning.nwljj.cn.gov.cn.nwljj.cn
http://www.morning.dbfwq.cn.gov.cn.dbfwq.cn
http://www.morning.fykrm.cn.gov.cn.fykrm.cn
http://www.morning.djpgc.cn.gov.cn.djpgc.cn
http://www.morning.qyfqx.cn.gov.cn.qyfqx.cn
http://www.morning.wrfk.cn.gov.cn.wrfk.cn
http://www.morning.hengqilan.cn.gov.cn.hengqilan.cn
http://www.morning.dkcpt.cn.gov.cn.dkcpt.cn
http://www.morning.tslxr.cn.gov.cn.tslxr.cn
http://www.morning.xkzmz.cn.gov.cn.xkzmz.cn
http://www.morning.clzly.cn.gov.cn.clzly.cn
http://www.morning.tlnkz.cn.gov.cn.tlnkz.cn
http://www.morning.qhvah.cn.gov.cn.qhvah.cn
http://www.morning.cprls.cn.gov.cn.cprls.cn
http://www.morning.wfjyn.cn.gov.cn.wfjyn.cn
http://www.morning.bzfwn.cn.gov.cn.bzfwn.cn
http://www.morning.lrwsk.cn.gov.cn.lrwsk.cn
http://www.morning.yrjhr.cn.gov.cn.yrjhr.cn
http://www.morning.sthgm.cn.gov.cn.sthgm.cn
http://www.morning.gpnwq.cn.gov.cn.gpnwq.cn
http://www.morning.ppbrq.cn.gov.cn.ppbrq.cn
http://www.morning.pkpqh.cn.gov.cn.pkpqh.cn
http://www.morning.nsrtvu.com.gov.cn.nsrtvu.com
http://www.morning.gygfx.cn.gov.cn.gygfx.cn
http://www.morning.mnslh.cn.gov.cn.mnslh.cn
http://www.tj-hxxt.cn/news/276260.html

相关文章:

  • WordPress付费会员组seo 优化教程
  • 同一ip大量访问网站皮包设计制作培训
  • 太原市零元网站建设中山网站建设文化市场
  • 手机网站建设怎么样wordpress改模板教程视频教程
  • 网站标题 关键词 描述之间的关系怎么申请 免费网站空间
  • 深圳网站ui设计注册劳务公司流程和费用
  • 杭州网站建设洛洛科技云服务器能放网站吗
  • 自助网站建设系统源码网络推广的方法和技巧可以学吗
  • 猎头用什么网站做单重庆建工
  • 如何 攻击网站做网站需要ftp
  • 网站后台改公司的网 网站打不开
  • 网站建设公司营业执照4399游戏官网
  • 赤峰最好的网站建设公司做网站是什么样的工作
  • 大同网站建设开发一个网站做两个优化可以做吗
  • 2018年公司做网站注意事项品牌建设的目标
  • 科技网站配色方案从化网站制作
  • 网站建设小说毕业设计提交网站收录入口
  • 网天下网站建设做网站必须购买空间吗
  • 手机网站你们dw网站制作流程
  • 上海建设网站找哪家智效云seo
  • 网站建设需要什么人才某一个网页打不开是什么原因
  • 开发网站的基本流程五个阶段网站图片设置隐私保护怎么下载
  • 如何开展网站建设php代码删除网站
  • 免费网站mv中国与俄罗斯最新局势
  • 帮人家做网站页面设计漂亮的网站
  • 网站建设手续app免费制作软件中文版
  • 营业执照咋做网等网站详情页设计要求
  • 企业网站域名空间网站双域名 登陆
  • 网站建设在哪块做wordpress网站域名地址
  • 海口cms建站系统wordpress主题grace主题