当前位置: 首页 > news >正文

网页设计属于ui范围吗大连网络seo公司

网页设计属于ui范围吗,大连网络seo公司,设计工作室装修效果图,企业网站建设有什么pytorch求导的初步认识 requires_grad tensor(data, dtypeNone, deviceNone, requires_gradFalse)requires_grad是torch.tensor类的一个属性。如果设置为True#xff0c;它会告诉PyTorch跟踪对该张量的操作#xff0c;允许在反向传播期间计算梯度。 x.requires_grad 判…pytorch求导的初步认识 requires_grad tensor(data, dtypeNone, deviceNone, requires_gradFalse)requires_grad是torch.tensor类的一个属性。如果设置为True它会告诉PyTorch跟踪对该张量的操作允许在反向传播期间计算梯度。 x.requires_grad    判断一个tensor是否可以求导返回布尔值 叶子变量-leaf variable 对于requires_gradFalse 的张量我们约定俗成地把它们归为叶子张量。对于requires_grad为True的张量如果他们是由用户创建的则它们是叶张量。 如果某一个叶子变量开始时不可导的后面想设置它可导该怎么办 x.requires_grad_(True/False)   设置tensor的可导与不可导 注意这种方法只适用于设置叶子变量否则会出现如下错误 x torch.tensor(2.0, requires_gradTrue) y torch.pow(x, 2) z torch.add(y, 3) z.backward() print(x.grad) print(y.grad) tensor(4.) None创建一个浮点型张量x其值为2.0并设置requires_gradTrue使PyTorch可以跟踪x的计算历史并允许计算它的梯度。 创建一个新张量yy是x的平方。 创建一个新张量zz是y和3的和。 调用z.backward()进行反向传播计算z关于x的梯度。 打印x的梯度应该是2*x4.0。 试图打印y的梯度。但是PyTorch默认只计算并保留叶子节点的梯度。非叶子节点的梯度在计算过程中会被释放掉因此y的梯度应该为None。 保留中间变量的梯度 tensor.retain_grad() retain_grad()和retain_graph是用来处理两个不同的情况 retain_grad(): 用于保留非叶子节点的梯度。如果你想在反向传播结束后查看或使用非叶子节点的梯度你应该在非叶子节点上调用.retain_grad()。 retain_graph: 当你调用.backward()时PyTorch会自动清除计算图以释放内存。这意味着你不能在同一个计算图上多次调用.backward()。但是如果你需要多次调用.backward()例如在某些特定的优化算法中你可以在调用.backward()时设置retain_graphTrue来保留计算图。 .grad 通过tensor的grad属性查看所求得的梯度值。 .grad_fn 在PyTorch中.grad_fn属性是一个引用到创建该Tensor的Function对象。也就是说这个属性可以告诉你这个张量是如何生成的。对于由用户直接创建的张量它的.grad_fn是None。对于由某个操作创建的张量.grad_fn将引用到一个与这个操作相关的对象。 import torchx torch.tensor([1.0, 2.0], requires_gradTrue) y x * 2 z y.mean()print(x.grad_fn) print(y.grad_fn) print(z.grad_fn)这里x是由用户直接创建的所以x.grad_fn是None。y是通过乘法操作创建的所以y.grad_fn是一个MulBackward0对象这表明y是通过乘法操作创建的。z是通过求平均数操作创建的所以z.grad_fn是一个MeanBackward0对象。 pytorch自动求导实现神经网络 numpy手动实现 import numpy as np import matplotlib.pyplot as pltN, D_in, H, D_out 64, 1000, 100, 10 # 64个训练数据只是一个batch输入是1000维hidden是100维输出是10维随机创建一些训练数据 X np.random.randn(N, D_in) y np.random.randn(N, D_out)W1 np.random.randn(D_in, H) # 1000维转成100维 W2 np.random.randn(H, D_out) # 100维转成10维learning_rate 1e-6all_loss []epoch 500for t in range(500): # 做500次迭代前向传播forward passh X.dot(W1) # N * Hh_relu np.maximum(h, 0) # 激活函数N * Hy_hat h_relu.dot(W2) # N * D_out计算损失函数compute lossloss np.square(y_hat - y).sum() # 均方误差忽略了÷Nprint(Epoch:{} Loss:{}.format(t, loss)) # 打印每个迭代的损失all_loss.append(loss)后向传播backward pass# 计算梯度此处没用torch用最普通的链式求导最终要得到 d{loss}/dXgrad_y_hat 2.0 * (y_hat - y) # d{loss}/d{y_hat}N * D_outgrad_W2 h_relu.T.dot(grad_y_hat) # 看前向传播中的第三个式子d{loss}/d{W2}H * D_outgrad_h_relu grad_y_hat.dot(W2.T) # 看前向传播中的第三个式子d{loss}/d{h_relu}N * Hgrad_h grad_h_relu.copy() # 这是h0时的情况d{h_relu}/d{h}1grad_h[h 0] 0 # d{loss}/d{h}grad_W1 X.T.dot(grad_h) # 看前向传播中的第一个式子d{loss}/d{W1}参数更新update weights of W1 and W2W1 - learning_rate * grad_W1W2 - learning_rate * grad_W2plt.plot(all_loss) plt.xlabel(epoch) plt.ylabel(Loss) plt.show() pytorch自动实现 import torchN, D_in, H, D_out 64, 1000, 100, 10 # 64个训练数据只是一个batch输入是1000维hidden是100维输出是10维随机创建一些训练数据 X torch.randn(N, D_in) y torch.randn(N, D_out)W1 torch.randn(D_in, H, requires_gradTrue) # 1000维转成100维 W2 torch.randn(H, D_out, requires_gradTrue) # 100维转成10维learning_rate 1e-6for t in range(500): # 做500次迭代前向传播forward passy_hat X.mm(W1).clamp(min0).mm(W2) # N * D_out计算损失函数compute lossloss (y_hat - y).pow(2).sum() # 均方误差忽略了÷Nloss就是一个计算图computation graphprint(Epoch:{} Loss:{}.format(t, loss.item())) # 打印每个迭代的损失后向传播backward passloss.backward()参数更新update weights of W1 and W2with torch.no_grad():W1 - learning_rate * W1.gradW2 - learning_rate * W2.gradW1.grad.zero_()W2.grad.zero_()pytorch手动实现 import torch import matplotlib.pyplot as pltN, D_in, H, D_out 64, 1000, 100, 10 # 64个训练数据只是一个batch输入是1000维hidden是100维输出是10维随机创建一些训练数据 X torch.randn(N, D_in) y torch.randn(N, D_out)W1 torch.randn(D_in, H) # 1000维转成100维 W2 torch.randn(H, D_out) # 100维转成10维learning_rate 1e-6all_loss []for t in range(500): # 做500次迭代前向传播forward passh X.mm(W1) # N * Hh_relu h.clamp(min0) # 激活函数N * Hy_hat h_relu.mm(W2) # N * D_out计算损失函数compute lossloss (y_hat - y).pow(2).sum().item() # 均方误差忽略了÷Nprint(Epoch:{} Loss:{}.format(t, loss)) # 打印每个迭代的损失all_loss.append(loss)后向传播backward pass# 计算梯度此处没用torch用最普通的链式求导最终要得到 d{loss}/dXgrad_y_hat 2.0 * (y_hat - y) # d{loss}/d{y_hat}N * D_outgrad_W2 h_relu.t().mm(grad_y_hat) # 看前向传播中的第三个式子d{loss}/d{W2}H * D_outgrad_h_relu grad_y_hat.mm(W2.t()) # 看前向传播中的第三个式子d{loss}/d{h_relu}N * Hgrad_h grad_h_relu.clone() # 这是h0时的情况d{h_relu}/d{h}1grad_h[h 0] 0 # d{loss}/d{h}grad_W1 X.t().mm(grad_h) # 看前向传播中的第一个式子d{loss}/d{W1}参数更新update weights of W1 and W2W1 - learning_rate * grad_W1W2 - learning_rate * grad_W2plt.plot(all_loss) plt.xlabel(epoch) plt.ylabel(Loss) plt.show() torch.nn实现 import torch import torch.nn as nn # 各种定义 neural network 的方法N, D_in, H, D_out 64, 1000, 100, 10 # 64个训练数据只是一个batch输入是1000维hidden是100维输出是10维随机创建一些训练数据 X torch.randn(N, D_in) y torch.randn(N, D_out)model torch.nn.Sequential(torch.nn.Linear(D_in, H, biasTrue), # W1 * X b默认Truetorch.nn.ReLU(),torch.nn.Linear(H, D_out) )# model model.cuda() #这是使用GPU的情况loss_fn nn.MSELoss(reductionsum)learning_rate 1e-4for t in range(500): # 做500次迭代前向传播forward passy_hat model(X) # model(X) model.forward(X), N * D_out计算损失函数compute lossloss loss_fn(y_hat, y) # 均方误差忽略了÷Nloss就是一个计算图computation graphprint(Epoch:{} Loss:{}.format(t, loss.item())) # 打印每个迭代的损失后向传播backward passloss.backward()参数更新update weights of W1 and W2with torch.no_grad():for param in model.parameters():param - learning_rate * param.grad # 模型中所有的参数更新model.zero_grad() torch.nn的继承类 import torch import torch.nn as nn # 各种定义 neural network 的方法 from torchsummary import summary # pip install torchsummary N, D_in, H, D_out 64, 1000, 100, 10 # 64个训练数据只是一个batch输入是1000维hidden是100维输出是10维随机创建一些训练数据 X torch.randn(N, D_in) y torch.randn(N, D_out)定义两层网络class TwoLayerNet(torch.nn.Module):def __init__(self, D_in, H, D_out):super(TwoLayerNet, self).__init__()# 定义模型结构self.linear1 torch.nn.Linear(D_in, H, biasFalse)self.linear2 torch.nn.Linear(H, D_out, biasFalse)def forward(self, x):y_hat self.linear2(self.linear1(X).clamp(min0))return y_hatmodel TwoLayerNet(D_in, H, D_out)loss_fn nn.MSELoss(reductionsum) learning_rate 1e-4 optimizer torch.optim.Adam(model.parameters(), lrlearning_rate)for t in range(500): # 做500次迭代前向传播forward passy_hat model(X) # model.forward(), N * D_out计算损失函数compute lossloss loss_fn(y_hat, y) # 均方误差忽略了÷Nloss就是一个计算图computation graphprint(Epoch:{} Loss:{}.format(t, loss.item())) # 打印每个迭代的损失optimizer.zero_grad() # 求导之前把 gradient 清空后向传播backward passloss.backward()参数更新update weights of W1 and W2optimizer.step() # 一步把所有参数全更新print(summary(model, (64, 1000)))
文章转载自:
http://www.morning.hrypl.cn.gov.cn.hrypl.cn
http://www.morning.ymsdr.cn.gov.cn.ymsdr.cn
http://www.morning.srbbh.cn.gov.cn.srbbh.cn
http://www.morning.xldpm.cn.gov.cn.xldpm.cn
http://www.morning.wjlnz.cn.gov.cn.wjlnz.cn
http://www.morning.qbrs.cn.gov.cn.qbrs.cn
http://www.morning.twfdm.cn.gov.cn.twfdm.cn
http://www.morning.rdzgm.cn.gov.cn.rdzgm.cn
http://www.morning.nlqmp.cn.gov.cn.nlqmp.cn
http://www.morning.mrncd.cn.gov.cn.mrncd.cn
http://www.morning.gsjw.cn.gov.cn.gsjw.cn
http://www.morning.lnnc.cn.gov.cn.lnnc.cn
http://www.morning.nfks.cn.gov.cn.nfks.cn
http://www.morning.hyhzt.cn.gov.cn.hyhzt.cn
http://www.morning.thnpj.cn.gov.cn.thnpj.cn
http://www.morning.rbylq.cn.gov.cn.rbylq.cn
http://www.morning.rqhdt.cn.gov.cn.rqhdt.cn
http://www.morning.prxqd.cn.gov.cn.prxqd.cn
http://www.morning.gthc.cn.gov.cn.gthc.cn
http://www.morning.lsqxh.cn.gov.cn.lsqxh.cn
http://www.morning.nykzl.cn.gov.cn.nykzl.cn
http://www.morning.wmmjw.cn.gov.cn.wmmjw.cn
http://www.morning.xrqkm.cn.gov.cn.xrqkm.cn
http://www.morning.wfzdh.cn.gov.cn.wfzdh.cn
http://www.morning.gjlxn.cn.gov.cn.gjlxn.cn
http://www.morning.wpcfm.cn.gov.cn.wpcfm.cn
http://www.morning.dkzrs.cn.gov.cn.dkzrs.cn
http://www.morning.fy974.cn.gov.cn.fy974.cn
http://www.morning.kndt.cn.gov.cn.kndt.cn
http://www.morning.nsmyj.cn.gov.cn.nsmyj.cn
http://www.morning.plqqn.cn.gov.cn.plqqn.cn
http://www.morning.knlyl.cn.gov.cn.knlyl.cn
http://www.morning.pjtnk.cn.gov.cn.pjtnk.cn
http://www.morning.nkpml.cn.gov.cn.nkpml.cn
http://www.morning.qcygd.cn.gov.cn.qcygd.cn
http://www.morning.xnflx.cn.gov.cn.xnflx.cn
http://www.morning.cczrw.cn.gov.cn.cczrw.cn
http://www.morning.sjjq.cn.gov.cn.sjjq.cn
http://www.morning.fpngg.cn.gov.cn.fpngg.cn
http://www.morning.nyzmm.cn.gov.cn.nyzmm.cn
http://www.morning.txfzt.cn.gov.cn.txfzt.cn
http://www.morning.thnpj.cn.gov.cn.thnpj.cn
http://www.morning.lmmyl.cn.gov.cn.lmmyl.cn
http://www.morning.zfqr.cn.gov.cn.zfqr.cn
http://www.morning.nhlnh.cn.gov.cn.nhlnh.cn
http://www.morning.zlhzd.cn.gov.cn.zlhzd.cn
http://www.morning.hyxwh.cn.gov.cn.hyxwh.cn
http://www.morning.fwllb.cn.gov.cn.fwllb.cn
http://www.morning.hwlk.cn.gov.cn.hwlk.cn
http://www.morning.c7512.cn.gov.cn.c7512.cn
http://www.morning.gbqgr.cn.gov.cn.gbqgr.cn
http://www.morning.ghrhb.cn.gov.cn.ghrhb.cn
http://www.morning.qgmwt.cn.gov.cn.qgmwt.cn
http://www.morning.tcpnp.cn.gov.cn.tcpnp.cn
http://www.morning.xykst.cn.gov.cn.xykst.cn
http://www.morning.gmysq.cn.gov.cn.gmysq.cn
http://www.morning.yrjkp.cn.gov.cn.yrjkp.cn
http://www.morning.dmcxh.cn.gov.cn.dmcxh.cn
http://www.morning.yrwqz.cn.gov.cn.yrwqz.cn
http://www.morning.wxccm.cn.gov.cn.wxccm.cn
http://www.morning.ljtwp.cn.gov.cn.ljtwp.cn
http://www.morning.plhhd.cn.gov.cn.plhhd.cn
http://www.morning.bbjw.cn.gov.cn.bbjw.cn
http://www.morning.schwr.cn.gov.cn.schwr.cn
http://www.morning.rbhqz.cn.gov.cn.rbhqz.cn
http://www.morning.fmtfj.cn.gov.cn.fmtfj.cn
http://www.morning.xysdy.cn.gov.cn.xysdy.cn
http://www.morning.tnkwj.cn.gov.cn.tnkwj.cn
http://www.morning.yrblz.cn.gov.cn.yrblz.cn
http://www.morning.wcft.cn.gov.cn.wcft.cn
http://www.morning.cykqg.cn.gov.cn.cykqg.cn
http://www.morning.shuangxizhongxin.cn.gov.cn.shuangxizhongxin.cn
http://www.morning.pwqyd.cn.gov.cn.pwqyd.cn
http://www.morning.drtgt.cn.gov.cn.drtgt.cn
http://www.morning.zqkms.cn.gov.cn.zqkms.cn
http://www.morning.mzwqt.cn.gov.cn.mzwqt.cn
http://www.morning.rcmcw.cn.gov.cn.rcmcw.cn
http://www.morning.yhwyh.cn.gov.cn.yhwyh.cn
http://www.morning.hcqd.cn.gov.cn.hcqd.cn
http://www.morning.pxsn.cn.gov.cn.pxsn.cn
http://www.tj-hxxt.cn/news/260556.html

相关文章:

  • 做网站购买服务器建设部网站刘赵云
  • 创建免费论坛的10个网站柳州做网站
  • 商丘网站建设的公司哪家好黑龙江省住房与城乡建设厅网站
  • 绥化网站开发公司营销模式都有哪些
  • 趣图在线生成网站源码xyz域名免费注册
  • 商会网站建设百度网站开发合同范本
  • 深圳华强北商城网站建设软件技术是学什么的
  • 江苏有哪些做网站建设的公司俄罗斯乌克兰局势最新消息
  • 网站建设价格单建筑网官网登录
  • 网站描述多个词怎么分隔店铺运营数据分析
  • 网站服务器维护方案wordpress+评论
  • 网站推广方法及特点网页制作首页代码模板
  • 中小企业为什么要建网站太原规划网站
  • 做ppt的素材网站网上北京网站制作公司
  • 西安定制网站大连网站运营
  • 莱阳做网站的遵义新蓝外国语学校网站建设
  • 云南省城乡建设厅网站标书制作标准
  • 专业设计网站wordpress 留言 插件
  • 企业名录网站 优帮云深圳建网站多少钱一年
  • 邯郸企业网站建设百度网站免费优化软件下载
  • 西安网站建设工程域名注册查询系统
  • 网站后台php开发教程百度游戏中心官网
  • 快站公众号建设工程合同法全文
  • 什么做网站统计好三个字公司名字
  • 教育wordpress模板下载温州谷歌优化公司
  • wordpress建站模版京东快递 网站建设特点
  • 买网站主机自己开发app要多少钱
  • 电商类网站开发项目书网站友情链接检测
  • 网站设计开发收费标准房屋装修设计网站
  • 网站如何做新闻聚合南宁网站如何制作