当前位置: 首页 > news >正文

做网站在图片里加文字网站友情链接交易平台

做网站在图片里加文字,网站友情链接交易平台,vi设计需要学什么软件,如何做pc网站适配nn.XXX与F.XXX PyTorch中torch.nn**(以下简写为nn)中的模块和torch.nn.functional(以下简写为F)**中的模块都提供了常用的神经网络操作,包括激活函数、损失函数、池化操作等。它们的主要区别如下: nn中的…

nn.XXX与F.XXX

PyTorch中torch.nn**(以下简写为nn)中的模块和torch.nn.functional(以下简写为F)**中的模块都提供了常用的神经网络操作,包括激活函数、损失函数、池化操作等。它们的主要区别如下:

  • nn中的模块是以类形式存在的;F中的模块是以函数形式存在的
  • nn中的模块是nn.Module的子类,包含可学习参数、可导,在反向传播中可以计算梯度,可以在模型中作为子模块使用;F中的模块是纯函数,没有与之相关联的可学习参数,虽然也可以用于反向传播,但是其梯度需要手动计算
  • nn中的模块需要实例化后,将张量作为实例的调用参数;F中的模块直接传递张量作为参数
  • nn中的模块可以管理和访问模块的内部参数和状态;F中的函数是纯函数,没有与之相关联的参数或状态,因此无法直接管理和访问函数的内部状态

nn.Relu与F.relu()

以激活函数ReLu为例,在使用激活函数时,有以下两种方式可以使用:

# 方法一
nn.ReLU()
# 方法二
F.relu(input)

这两种方法都是使用ReLu激活,但使用的场景不一样。

  • nn.ReLU是一个类,必须实例化后才能使用,一般在定义网络层的时候使用

    # nn.ReLU的常用方法
    nn.Sequential(nn.Conv2d(in_channels, out_channels),nn.ReLU(inplace=True))
    
  • F.relu()是函数调用,一般使用在foreward()函数

  • nn.ReLU只能处理Variable类型的张量;而F.relu()可以处理Tensor和Variable类型的张量

  • nn.ReLU需要额外占用内存用来存储中间结果;而F.relu()则是直接在原张量上进行操作,不需要额外的内存占用

另外:

  • 当用print()打印输出神经网络时,会输出nn.ReLU()层,而F.relu()是没有输出的
http://www.tj-hxxt.cn/news/95222.html

相关文章:

  • 怎么查询网站是哪家公司做的网络销售技巧和话术
  • 给别人做网站挣钱吗?网络营销的特点分别是
  • 西安网站seo收费营销推广活动方案
  • 先做他个天猫网站百度seo公司兴田德润
  • 长安镇网站建设百度游戏官网
  • 网站建设论文500字独立站seo搜索优化
  • php网站设计要学多久青岛网络推广公司排名
  • 用网站做邮箱吗seo运营推广
  • 重庆的做网站公司深圳网络推广培训机构
  • 东莞网站平台后缀多合一seo插件破解版
  • 怎样做的英文网站产品营销策略有哪些
  • json做网站的数据库长沙快速排名优化
  • wordpress diy主题企业网站seo推广方案
  • 家庭网络组网方案北京seo公司哪家好
  • 怎么选择网站建设公司百度搜索优化平台
  • 唐河网站制作网店培训班
  • 泊头做网站价格百度网盘网页
  • 郴州网站seo汕头企业网络推广
  • 怎样在各b2b网站做推广软文广告投放平台
  • 网站建设技术文案淘宝如何刷关键词增加权重
  • 酒店网站建设方案ppt昆明做网站的公司
  • 如何查看网站备案信息怎样制作一个网页
  • 邹城哪个公司做网站好长春网站seo
  • 做一款手机app大概多少钱百度seo排名优化提高流量
  • 网站建设便宜不可信杭州seo按天计费
  • 昆明做网站优化的公司附近电脑培训学校
  • 利用ps怎么做网站首页如何优化seo
  • 做网站要注意什么问题seo分析seo诊断
  • 赤坎手机网站建设上海百度seo
  • 做it题的网站友情链接工具