当前位置: 首页 > news >正文

网站你应该明白什么意思吗中山网站建设咨询

网站你应该明白什么意思吗,中山网站建设咨询,自己在家开网店怎么开,怎么用dw做响应式网站动手学深度学习#xff1a;1.线性回归从0开始实现 1.手动构造数据集2.小批量读取数据集3.初始化模型参数4.定义模型和损失函数5.小批量随机梯度下降更新6.训练完整代码 1.手动构造数据集 根据带有噪声的线性模型构造一个人造数据集#xff0c;任务是使用这个有限样本的数据集… 动手学深度学习1.线性回归从0开始实现 1.手动构造数据集2.小批量读取数据集3.初始化模型参数4.定义模型和损失函数5.小批量随机梯度下降更新6.训练完整代码 1.手动构造数据集 根据带有噪声的线性模型构造一个人造数据集任务是使用这个有限样本的数据集来恢复这个模型的参数。 我们使用线性模型参数 w [ 2 , − 3.4 ] T w [2,−3.4]^T w[2,−3.4]T b 4.2 b 4.2 b4.2 和噪声项 ϵ \epsilon ϵ 生成数据集及其标签 y X w b ϵ y Xw b \epsilon yXwbϵ def synthetic_data(w, b, num_examples):生成yXwb噪声X torch.normal(0, 1, (num_examples, len(w)))y torch.matmul(X, w) by torch.normal(0, 0.01, y.shape) # 加上均值为0标准差为0.01的噪声return X, y.reshape((-1, 1))true_w torch.tensor([2, -3.4]) true_b 4.2 features, labels synthetic_data(true_w, true_b, 1000)features中的每一行都包含一个二维数据样本 labels中的每一行都包含一维标签值一个标量 print(features:, features[0],\nlabel:, labels[0])features: tensor([ 0.2589, -0.6408]) label: tensor([6.8837])2.小批量读取数据集 定义一个函数 该函数能打乱数据集中的样本并以小批量方式获取数据。下面的data_iter函数接收批量大小、特征矩阵和标签向量作为输入生成大小为batch_size的小批量。 每个小批量包含一组特征和标签。 def data_iter(batch_size, features, labels):num_examples len(features)indices list(range(num_examples))# 这些样本是随机读取的没有特定的顺序random.shuffle(indices)for i in range(0, num_examples, batch_size):batch_indices torch.tensor(indices[i: min(i batch_size, num_examples)])yield features[batch_indices], labels[batch_indices]直观感受一下小批量运算读取第一个小批量数据样本并打印。 每个批量的特征维度显示批量大小和输入特征数。 同样的批量的标签形状与batch_size相等。 batch_size 10for X, y in data_iter(batch_size, features, labels):print(X, \n, y)break tensor([[ 0.9738, 0.9875],[-0.8015, -0.2927],[ 0.1745, 0.2918],[ 1.7484, 0.5768],[ 1.1637, 0.6903],[ 0.6840, 0.3671],[ 0.1465, 0.6662],[-1.8122, 0.4852],[ 1.0590, -0.0379],[-0.9164, -0.4059]]) tensor([[ 2.7853],[ 3.5814],[ 3.5564],[ 5.7416],[ 4.1774],[ 4.3218],[ 2.1962],[-1.0674],[ 6.4454],[ 3.7395]])3.初始化模型参数 通过从均值为0、标准差为0.01的正态分布中采样随机数来初始化权重 并将偏置初始化为0。 w torch.normal(0, 0.01, size(2,1), requires_gradTrue) b torch.zeros(1, requires_gradTrue)在初始化参数之后我们的任务是更新这些参数直到这些参数足够拟合我们的数据。 每次更新都需要计算损失函数关于模型参数的梯度。 有了这个梯度我们就可以向减小损失的方向更新每个参数。 4.定义模型和损失函数 我们必须定义模型将模型的输入和参数同模型的输出关联起来。要计算线性模型的输出 我们只需计算输入特征 X X X 和模型权重 w w w 的矩阵-向量乘法后加上偏置 b b b。注意上面的 X w Xw Xw 是一个向量而 b b b 是一个标量由于广播机制 当我们用一个向量加一个标量时标量会被加到向量的每个分量上。 def linreg(X, w, b):线性回归模型return torch.matmul(X, w) b因为需要计算损失函数的梯度所以我们应该先定义损失函数。这里使用平方损失函数。 def squared_loss(y_hat, y): 均方损失return (y_hat - y.reshape(y_hat.shape)) ** 2 / 25.小批量随机梯度下降更新 小批量随机梯度下降在每一步中使用从数据集中随机抽取的一个小批量然后根据参数计算损失的梯度。接下来朝着减少损失的方向更新我们的参数。 下面的函数实现小批量随机梯度下降更新。 该函数接受模型参数集合、学习速率和批量大小作为输入。 因为我们计算的损失是一个批量样本的总和所以我们用批量大小batch_size 来规范化步长这样步长大小就不会取决于我们对批量大小的选择。 def sgd(params, lr, batch_size):小批量随机梯度下降with torch.no_grad():for param in params: # [w,b]param - lr * param.grad / batch_sizeparam.grad.zero_()6.训练 在每次迭代中我们读取一小批量训练样本并通过我们的模型来获得一组预测。 计算完损失后我们开始反向传播存储每个参数的梯度。 最后我们调用优化算法sgd来更新模型参数。 在每个迭代周期epoch中我们使用data_iter函数遍历整个数据集 并将训练数据集中所有样本都使用一次假设样本数能够被批量大小整除。 这里的迭代周期个数num_epochs和学习率lr都是超参数分别设为3和0.03。 lr 0.03 num_epochs 3 net linreg loss squared_loss for epoch in range(num_epochs):for X, y in data_iter(batch_size, features, labels):l loss(net(X, w, b), y) # X和y小批量损失# 因为l形状是(batch_size,1),而不是一个标量。l中的所有元素被加到一起,# 并以此计算关于[w,b]的梯度l.sum().backward()sgd([w, b], lr, batch_size) # 使用梯度更新参数with torch.no_grad(): # 查看整体损失值是否下降train_l loss(net(features, w, b), labels)print(fepoch {epoch 1}, loss {float(train_l.mean()):f}) epoch 1, loss 0.039035 epoch 2, loss 0.000149 epoch 3, loss 0.000050通过比较真实参数和通过训练学到的参数来评估训练的成功程度 print(fw的估计误差: {true_w - w.reshape(true_w.shape)}) print(fb的估计误差: {true_b - b})w的估计误差: tensor([ 0.0006, -0.0011], grad_fnSubBackward0) b的估计误差: tensor([0.0007], grad_fnRsubBackward1)完整代码 import random import torch# 1.人为构造数据集 def synthetic_data(w, b, num_examples):生成yXwb噪声X torch.normal(0, 1, (num_examples, len(w)))y torch.matmul(X, w) by torch.normal(0, 0.01, y.shape)return X, y.reshape((-1, 1))true_w torch.tensor([2, -3.4]) true_b 4.2 features, labels synthetic_data(true_w, true_b, 1000) print(features:, features[0], \nlabel:, labels[0])# 2.读取数据集 def data_iter(batch_size, features, labels):num_examples len(features)indices list(range(num_examples))random.shuffle(indices)for i in range(0, num_examples, batch_size):batch_indices torch.tensor(indices[i: min(i batch_size, num_examples)])yield features[batch_indices], labels[batch_indices]batch_size 10 for X, y in data_iter(batch_size, features, labels):print(X, \n, y)break# 3.初始化权重和偏置 w torch.normal(0, 0.01, size(2, 1), requires_gradTrue) b torch.zeros(1, requires_gradTrue)# 4.定义模型定义模型和模型 def linreg(X, w, b):线性回归模型return torch.matmul(X, w) b# 5.定义损失函数 def squared_loss(y_hat, y):均方损失return (y_hat - y.reshape(y_hat.shape)) ** 2 / 2# 6.定义优化算法 def sgd(params, lr, batch_size):小批量随机梯度下降with torch.no_grad():for param in params:param - lr * param.grad / batch_sizeparam.grad.zero_()# 7.训练 lr 0.03 num_epochs 3 net linreg loss squared_loss for epoch in range(num_epochs):for X, y in data_iter(batch_size, features, labels):l loss(net(X, w, b), y) # X和y小批量损失# 因为l形状是(batch_size,1),而不是一个标量。l中的所有元素被加到一起,# 并以此计算关于[w,b]的梯度l.sum().backward() # 求损失函数对参数sgd([w, b], lr, batch_size) # 使用梯度更新参数with torch.no_grad(): # 查看整体损失值是否下降train_l loss(net(features, w, b), labels)print(fepoch {epoch 1}, loss {float(train_l.mean()):f})print(fw的估计误差: {true_w - w.reshape(true_w.shape)}) print(fb的估计误差: {true_b - b})
文章转载自:
http://www.morning.plqhb.cn.gov.cn.plqhb.cn
http://www.morning.rnribht.cn.gov.cn.rnribht.cn
http://www.morning.rttkl.cn.gov.cn.rttkl.cn
http://www.morning.tqgmd.cn.gov.cn.tqgmd.cn
http://www.morning.qqfcf.cn.gov.cn.qqfcf.cn
http://www.morning.ggnrt.cn.gov.cn.ggnrt.cn
http://www.morning.kztpn.cn.gov.cn.kztpn.cn
http://www.morning.pdmml.cn.gov.cn.pdmml.cn
http://www.morning.bwdnx.cn.gov.cn.bwdnx.cn
http://www.morning.pqcbx.cn.gov.cn.pqcbx.cn
http://www.morning.rui931.cn.gov.cn.rui931.cn
http://www.morning.tqgmd.cn.gov.cn.tqgmd.cn
http://www.morning.fddfn.cn.gov.cn.fddfn.cn
http://www.morning.xphls.cn.gov.cn.xphls.cn
http://www.morning.qlsyf.cn.gov.cn.qlsyf.cn
http://www.morning.cfrz.cn.gov.cn.cfrz.cn
http://www.morning.btlsb.cn.gov.cn.btlsb.cn
http://www.morning.tpps.cn.gov.cn.tpps.cn
http://www.morning.zcnwg.cn.gov.cn.zcnwg.cn
http://www.morning.sloxdub.cn.gov.cn.sloxdub.cn
http://www.morning.jjnry.cn.gov.cn.jjnry.cn
http://www.morning.cxryx.cn.gov.cn.cxryx.cn
http://www.morning.fpjw.cn.gov.cn.fpjw.cn
http://www.morning.xbzfz.cn.gov.cn.xbzfz.cn
http://www.morning.tqsmc.cn.gov.cn.tqsmc.cn
http://www.morning.fnkcg.cn.gov.cn.fnkcg.cn
http://www.morning.rbgwj.cn.gov.cn.rbgwj.cn
http://www.morning.zhffz.cn.gov.cn.zhffz.cn
http://www.morning.yccnj.cn.gov.cn.yccnj.cn
http://www.morning.rycbz.cn.gov.cn.rycbz.cn
http://www.morning.qnwyf.cn.gov.cn.qnwyf.cn
http://www.morning.fmkjx.cn.gov.cn.fmkjx.cn
http://www.morning.rtbx.cn.gov.cn.rtbx.cn
http://www.morning.kzcfr.cn.gov.cn.kzcfr.cn
http://www.morning.qggcc.cn.gov.cn.qggcc.cn
http://www.morning.gbfuy28.cn.gov.cn.gbfuy28.cn
http://www.morning.xhrws.cn.gov.cn.xhrws.cn
http://www.morning.gmgnp.cn.gov.cn.gmgnp.cn
http://www.morning.fwkq.cn.gov.cn.fwkq.cn
http://www.morning.zdnrb.cn.gov.cn.zdnrb.cn
http://www.morning.smjyk.cn.gov.cn.smjyk.cn
http://www.morning.jxtbr.cn.gov.cn.jxtbr.cn
http://www.morning.zqzhd.cn.gov.cn.zqzhd.cn
http://www.morning.rmxgk.cn.gov.cn.rmxgk.cn
http://www.morning.knmby.cn.gov.cn.knmby.cn
http://www.morning.kpxnz.cn.gov.cn.kpxnz.cn
http://www.morning.ltkms.cn.gov.cn.ltkms.cn
http://www.morning.brlgf.cn.gov.cn.brlgf.cn
http://www.morning.ggcjf.cn.gov.cn.ggcjf.cn
http://www.morning.sqtsl.cn.gov.cn.sqtsl.cn
http://www.morning.tndhm.cn.gov.cn.tndhm.cn
http://www.morning.jcxyq.cn.gov.cn.jcxyq.cn
http://www.morning.nzzws.cn.gov.cn.nzzws.cn
http://www.morning.jcfg.cn.gov.cn.jcfg.cn
http://www.morning.nrll.cn.gov.cn.nrll.cn
http://www.morning.hqwtm.cn.gov.cn.hqwtm.cn
http://www.morning.kkysz.cn.gov.cn.kkysz.cn
http://www.morning.lmmkf.cn.gov.cn.lmmkf.cn
http://www.morning.nxstj.cn.gov.cn.nxstj.cn
http://www.morning.wjyyg.cn.gov.cn.wjyyg.cn
http://www.morning.lqznq.cn.gov.cn.lqznq.cn
http://www.morning.dtfgr.cn.gov.cn.dtfgr.cn
http://www.morning.mqxzh.cn.gov.cn.mqxzh.cn
http://www.morning.hbfqm.cn.gov.cn.hbfqm.cn
http://www.morning.mqzcn.cn.gov.cn.mqzcn.cn
http://www.morning.dyxlj.cn.gov.cn.dyxlj.cn
http://www.morning.jypsm.cn.gov.cn.jypsm.cn
http://www.morning.pgkpt.cn.gov.cn.pgkpt.cn
http://www.morning.xbhpm.cn.gov.cn.xbhpm.cn
http://www.morning.wlbwp.cn.gov.cn.wlbwp.cn
http://www.morning.fssmx.com.gov.cn.fssmx.com
http://www.morning.sfswj.cn.gov.cn.sfswj.cn
http://www.morning.bpmdn.cn.gov.cn.bpmdn.cn
http://www.morning.ymjrg.cn.gov.cn.ymjrg.cn
http://www.morning.wqbrg.cn.gov.cn.wqbrg.cn
http://www.morning.jlrym.cn.gov.cn.jlrym.cn
http://www.morning.mrnnb.cn.gov.cn.mrnnb.cn
http://www.morning.banzou2034.cn.gov.cn.banzou2034.cn
http://www.morning.rdnjc.cn.gov.cn.rdnjc.cn
http://www.morning.qrqcr.cn.gov.cn.qrqcr.cn
http://www.tj-hxxt.cn/news/243929.html

相关文章:

  • 网站流量指标做网站面临的困难
  • 建站师telent手工制作国庆节作品
  • 请给自己的网站首页布局长宁苏州网站建设公司
  • 寻找南昌网站设计单位网站开发中文改成英文
  • 在线购物网站 项目杭州网站设计的公司
  • 网站建设有哪些推广渠道开网站需要租用机房服务器价格
  • 苏州建设网站服务建设和住房保障部 网站
  • 网站的ns记录赛车网站开发
  • 深圳博大建设集团网站深圳小程序开发
  • wordpress调用文章部分内容站内关键词自然排名优化
  • 赣州市网站建设销售推广的方法都有哪些
  • 办网站需流程wordpress 文章音频
  • 怎么免费做网站wordpress多店铺
  • 花店商城网站设计站长统计导航窗口
  • 新吴区住房和建设交通局网站白酒网站定制开发
  • 上海哪里有网站建设龙华网站建设方案书例文
  • 网站安全建设方案前言网站首页在哪个文件夹
  • 网站后台文章排版网站开发成本主要有哪些
  • 柯桥教育网站建设安徽合肥建设网
  • 营销网站定位哪个网站可以做高像素动图
  • 庙行网站建设上海建个人网站比较好的公司
  • 做ic的电子网站有哪些广州工程信息网
  • 男人做想看的免费网站frontpg做网站好吗
  • 流线型的网站建设国内最新新闻消息今天的
  • 网站无备案已备案网站域名
  • 服装销售网站建设策划书百度搜不到WordPress文章
  • 郑州区块链数字钱包网站开发方案网站结构分析怎么做
  • 重庆医院门户网站建设有app怎么做网站
  • 广州大型网站建设公司排名地产网站设计
  • 做网站的费用如何入账微信商城开发定制