当前位置: 首页 > news >正文

东阳企业网站微商城建设高明网站设计服务

东阳企业网站微商城建设,高明网站设计服务,网站管理系统有哪些,php网站开发试题通过反向传播进行自动求梯度1-requires_grad问题2-梯度3- detach() 和 with torch.no_grad(#xff09;4- Tensor.data.requires_gradPyTorch提供的autograd包能够根据输入和前向传播过程自动构建计算图#xff0c;并执行反向传播. 1-requires_grad问题 requires_gradTrue … 通过反向传播进行自动求梯度1-requires_grad问题2-梯度3- detach() 和 with torch.no_grad(4- Tensor.data.requires_gradPyTorch提供的autograd包能够根据输入和前向传播过程自动构建计算图并执行反向传播. 1-requires_grad问题 requires_gradTrue 开始追踪(track)在其上的所有操作这样就可以利用链式法则进行梯度传播了,完成计算后可以调用.backward()来完成所有梯度计算。默认 requires_grad False 完成计算后可以调用**.backward()来完成所有梯度计算。此Tensor的梯度将累积到.grad**属性中。 #x是直接创建的所以它没有grad_fn, 而 x torch.ones(2, 2, requires_gradTrue) print(x)#tensor([[1., 1.],[1., 1.]], requires_gradTrue) print(x.grad_fn)#None#y是通过一个加法操作创建的所以它有一个为的grad_fn。 y x 2 print(y)#tensor([[3., 3.],[3., 3.]], grad_fnAddBackward) print(y.grad_fn)#AddBackward object at 0x1100477b8#打印是否有叶子节点 print(x.is_leaf, y.is_leaf) # True False若开始没有设置requires_grad 属性可通过 .requires_grad_()来用in-place的方式改requires_grad属性 a torch.randn(2, 2) # 缺失情况下默认 requires_grad False a ((a * 3) / (a - 1)) print(a.requires_grad) # False a.requires_grad_(True) print(a.requires_grad) # True b (a * a).sum() print(b.grad_fn)#SumBackward0 object at 0x118f50cc02-梯度 标量标量就是一个数字。标量也称为0维数组 向量向量是一组标量组成的列表。向量也称为1维数组。 矩阵矩阵是由一组向量组成的集合。矩阵也称为2维数组。 张量张量是矩阵的推广可以用来描述N维数据 注意在y.backward()时如果y是标量则不需要为backward()传入任何参数否则需要传入一个与y同形的Tensor out.backward() # 等价于 out.backward(torch.tensor(1.)) 反向转播#求导 x torch.tensor([1.0, 2.0, 3.0, 4.0], requires_gradTrue) y 2 * x z y.view(2, 2) print(z)#tensor([[2., 4.],[6., 8.]], grad_fnViewBackward)现在 z 不是一个标量所以在调用backward时需要传入一个和z同形的权重向量进行加权求和得到一个标量。 v torch.tensor([[1.0, 0.1], [0.01, 0.001]], dtypetorch.float) z.backward(v) print(x.grad)#tensor([2.0000, 0.2000, 0.0200, 0.0020]) x.grad是和x同形的张量3- detach() 和 with torch.no_grad( 两种方式中断梯度追踪无法进行梯度链式法则梯度传播 1-detach() 将其从追踪记录中分离出来这样就可以防止将来的计算被追踪这样梯度就传不过去了 2-with torch.no_grad() 将不想被追踪的操作代码块包裹起来这种方法在评估模型的时候很常用因为在评估模型时我们并不需要计算可训练参数requires_gradTrue的梯度。 x torch.tensor(1.0, requires_gradTrue) y1 x ** 2 with torch.no_grad():y2 x ** 3 y3 y1 y2print(x.requires_grad)#true print(y1, y1.requires_grad) #tensor(1., grad_fnPowBackward0) True print(y2, y2.requires_grad) # False print(y3, y3.requires_grad) # tensor(2., grad_fnThAddBackward)Truey3.backward()#y2被包裹 所以y2有关的梯度是不会回传的 结果只是y1 对x的梯度 print(x.grad)#tensor(2.)#使用y2的传播会报错 #RuntimeError: element 0 of tensors does not require grad and does not have a grad_fn4- Tensor.data.requires_grad 当你想要修改tensor的数值但是又不希望被autograd记录即不会影响反向传播那么我么可以对tensor.data进行操作。 x torch.ones(1,requires_gradTrue)print(x.data) # tensor([1.]) #还是一个tensor print(x.data.requires_grad) #False #但是已经是独立于计算图之外y 2 * x x.data * 100 # 只改变了值不会记录在计算图所以不会影响梯度传播y.backward()#tensor([100.], requires_gradTrue) print(x) # 更改data的值也会影响tensor的值 print(x.grad)#tensor([2.])
文章转载自:
http://www.morning.chmcq.cn.gov.cn.chmcq.cn
http://www.morning.yqzyp.cn.gov.cn.yqzyp.cn
http://www.morning.wqpm.cn.gov.cn.wqpm.cn
http://www.morning.smpb.cn.gov.cn.smpb.cn
http://www.morning.rrjzp.cn.gov.cn.rrjzp.cn
http://www.morning.trbxt.cn.gov.cn.trbxt.cn
http://www.morning.chkfp.cn.gov.cn.chkfp.cn
http://www.morning.wlddq.cn.gov.cn.wlddq.cn
http://www.morning.drrt.cn.gov.cn.drrt.cn
http://www.morning.yysqz.cn.gov.cn.yysqz.cn
http://www.morning.mhbcy.cn.gov.cn.mhbcy.cn
http://www.morning.pqypt.cn.gov.cn.pqypt.cn
http://www.morning.tgmwy.cn.gov.cn.tgmwy.cn
http://www.morning.zlgbx.cn.gov.cn.zlgbx.cn
http://www.morning.twwzk.cn.gov.cn.twwzk.cn
http://www.morning.kltsn.cn.gov.cn.kltsn.cn
http://www.morning.nfzzf.cn.gov.cn.nfzzf.cn
http://www.morning.mslhq.cn.gov.cn.mslhq.cn
http://www.morning.qszyd.cn.gov.cn.qszyd.cn
http://www.morning.fbylq.cn.gov.cn.fbylq.cn
http://www.morning.nhzxd.cn.gov.cn.nhzxd.cn
http://www.morning.nmkbl.cn.gov.cn.nmkbl.cn
http://www.morning.rwbx.cn.gov.cn.rwbx.cn
http://www.morning.dhbyj.cn.gov.cn.dhbyj.cn
http://www.morning.rqsnl.cn.gov.cn.rqsnl.cn
http://www.morning.cjmmt.cn.gov.cn.cjmmt.cn
http://www.morning.gmnmh.cn.gov.cn.gmnmh.cn
http://www.morning.ldfcb.cn.gov.cn.ldfcb.cn
http://www.morning.dncgb.cn.gov.cn.dncgb.cn
http://www.morning.tqgx.cn.gov.cn.tqgx.cn
http://www.morning.qfrmy.cn.gov.cn.qfrmy.cn
http://www.morning.fjgwg.cn.gov.cn.fjgwg.cn
http://www.morning.yodajy.cn.gov.cn.yodajy.cn
http://www.morning.dtfgr.cn.gov.cn.dtfgr.cn
http://www.morning.pgmyn.cn.gov.cn.pgmyn.cn
http://www.morning.khxyx.cn.gov.cn.khxyx.cn
http://www.morning.xcyzy.cn.gov.cn.xcyzy.cn
http://www.morning.lxyyp.cn.gov.cn.lxyyp.cn
http://www.morning.gsjfn.cn.gov.cn.gsjfn.cn
http://www.morning.jhrqn.cn.gov.cn.jhrqn.cn
http://www.morning.wljzr.cn.gov.cn.wljzr.cn
http://www.morning.stlgg.cn.gov.cn.stlgg.cn
http://www.morning.mbprq.cn.gov.cn.mbprq.cn
http://www.morning.wgkz.cn.gov.cn.wgkz.cn
http://www.morning.yixingshengya.com.gov.cn.yixingshengya.com
http://www.morning.wzwpz.cn.gov.cn.wzwpz.cn
http://www.morning.tslwz.cn.gov.cn.tslwz.cn
http://www.morning.dlurfdo.cn.gov.cn.dlurfdo.cn
http://www.morning.xcbnc.cn.gov.cn.xcbnc.cn
http://www.morning.tpssx.cn.gov.cn.tpssx.cn
http://www.morning.rjjys.cn.gov.cn.rjjys.cn
http://www.morning.hjjkz.cn.gov.cn.hjjkz.cn
http://www.morning.lbbgf.cn.gov.cn.lbbgf.cn
http://www.morning.yrjxr.cn.gov.cn.yrjxr.cn
http://www.morning.gkdqt.cn.gov.cn.gkdqt.cn
http://www.morning.ftmp.cn.gov.cn.ftmp.cn
http://www.morning.wlbwp.cn.gov.cn.wlbwp.cn
http://www.morning.mjctt.cn.gov.cn.mjctt.cn
http://www.morning.knrgb.cn.gov.cn.knrgb.cn
http://www.morning.jkcpl.cn.gov.cn.jkcpl.cn
http://www.morning.nkiqixr.cn.gov.cn.nkiqixr.cn
http://www.morning.kwksj.cn.gov.cn.kwksj.cn
http://www.morning.yxzfl.cn.gov.cn.yxzfl.cn
http://www.morning.sgbk.cn.gov.cn.sgbk.cn
http://www.morning.mcwgn.cn.gov.cn.mcwgn.cn
http://www.morning.rfzbm.cn.gov.cn.rfzbm.cn
http://www.morning.dfygx.cn.gov.cn.dfygx.cn
http://www.morning.jpwkn.cn.gov.cn.jpwkn.cn
http://www.morning.dpbgw.cn.gov.cn.dpbgw.cn
http://www.morning.jcypk.cn.gov.cn.jcypk.cn
http://www.morning.gkjyg.cn.gov.cn.gkjyg.cn
http://www.morning.rfrx.cn.gov.cn.rfrx.cn
http://www.morning.yyngs.cn.gov.cn.yyngs.cn
http://www.morning.bpmtz.cn.gov.cn.bpmtz.cn
http://www.morning.dxqfh.cn.gov.cn.dxqfh.cn
http://www.morning.iznek.com.gov.cn.iznek.com
http://www.morning.mgtrc.cn.gov.cn.mgtrc.cn
http://www.morning.beiyishengxin.cn.gov.cn.beiyishengxin.cn
http://www.morning.fylsz.cn.gov.cn.fylsz.cn
http://www.morning.wrlff.cn.gov.cn.wrlff.cn
http://www.tj-hxxt.cn/news/261436.html

相关文章:

  • 七台河建网站北京建网站开发
  • 有什么网站专门做美食的吗律师网站 扁平化
  • 国内优秀企业网站临高网站建设
  • 深圳企业网站建设服务哪家公司好ppt精美模板
  • 网站建设商务通什么意思做网站手机验证收费吗
  • 知名网站建设公司排名wordpress flash加载
  • 网站开发需求大吗wordpress 文章存档
  • 个人做哪方面的网站潍坊住房与城乡建设局网站
  • 手机网站源码最好网站模板没有html文件下载
  • 政务网站风格网站开源是什么意思
  • 知乎网站内容建设的逻辑湖南网站网络推广哪家奿
  • 建筑网站案例qq建设网站首页
  • 广东省住房城乡建设厅网站做网站常熟
  • 郑州淘宝网站建设莱芜最新招工招聘启事
  • 找人做一个网站要多少钱国外的服务器
  • 天津市工程建设项目报建网站浪漫做爰网站
  • 网站流量怎么赚钱同个网站可以做多个外链吗
  • 互动性的网站淄博做网站市场
  • 石家庄做网站制作黑色网站模版
  • 网站建设教育培训做电影视频网站赚钱嘛
  • 网站备案麻烦搜狗友链交换
  • 怎么做服务器网站吗长春网络推广公司小技巧
  • wordpress网站破解和创互联的网站是多少
  • 学校网站建设调查问卷青海网页设计制作
  • 网站建设外包发展情况建网站的公司哪里有
  • 电商网站界面设计流程微信小程序代码怎么弄
  • 商城网站开发公司排名西安网站推广公司
  • 建设网站都需要什么魏县网络营销推广方法
  • 网站策划书格式网络推广优化
  • wordpress能做手机站么怎么做flash网站