当前位置: 首页 > news >正文

开发小程序多少钱一个宁波网站关键词优化代码

开发小程序多少钱一个,宁波网站关键词优化代码,深圳彩页设计,手机网页制作图片一、前向传播 作用于每一层的输入,通过逐层计算得到输出结果 二、反向传播 作用于网络输出,通过计算梯度由深到浅更新网络参数 三、整体架构 层次结构:逐层变换数据 神经元:数据量、矩阵大小(代表输入特征的数量…

一、前向传播

作用于每一层的输入,通过逐层计算得到输出结果

二、反向传播

作用于网络输出,通过计算梯度由深到浅更新网络参数
在这里插入图片描述

三、整体架构

层次结构:逐层变换数据
神经元:数据量、矩阵大小(代表输入特征的数量)

x : [ 1 , 3 ] x:[1,3] x[1,3]
w 1 : [ 3 , 4 ] w_1:[3,4] w1[3,4]
h i d d e n l a y e r 1 : [ 1 , 4 ] hidden layer1:[1,4] hiddenlayer1[1,4]
w 2 : [ 4 , 4 ] w_2:[4,4] w2[4,4]
h i d d e n l a y e r 2 : [ 1 , 4 ] hidden layer2:[1,4] hiddenlayer2[1,4]
w 3 : [ 4 , 1 ] w_3:[4,1] w3[4,1]
在这里插入图片描述

非线性操作加在每一步矩阵计算之后,增加神经网络的非线性。没有激活函数的每层都相当于矩阵相乘。就算你叠加了若干层之后,无非还是个矩阵相乘罢了。

在这里插入图片描述

四、神经元个数对结果的影响(Stanford例子)

Stanford可视化的神经网络,可以自行调参数试试

1、 num_neurons:1

将神经元设置为1,查看效果

layer_defs = [];
layer_defs.push({type:'input', out_sx:1, out_sy:1, out_depth:2});
layer_defs.push({type:'fc',  num_neurons:1, activation: 'tanh'});
layer_defs.push({type:'fc', num_neurons:1, activation: 'tanh'});
layer_defs.push({type:'softmax', num_classes:2});net = new convnetjs.Net();
net.makeLayers(layer_defs);trainer = new convnetjs.SGDTrainer(net, {learning_rate:0.01, momentum:0.1, batch_size:10, l2_decay:0.001});

查看circle data,可以看出效果不佳,看上去像切了一刀。
在这里插入图片描述

2、 num_neurons:2

将神经元设置为2,查看效果

layer_defs = [];
layer_defs.push({type:'input', out_sx:1, out_sy:1, out_depth:2});
layer_defs.push({type:'fc', num_neurons:2, activation: 'tanh'});
layer_defs.push({type:'fc', num_neurons:2, activation: 'tanh'});
layer_defs.push({type:'softmax', num_classes:2});net = new convnetjs.Net();
net.makeLayers(layer_defs);trainer = new convnetjs.SGDTrainer(net, {learning_rate:0.01, momentum:0.1, batch_size:10, l2_decay:0.001});

查看circle data,可以看出效果一般,看上去像切了两刀,抛物线状。
在这里插入图片描述

3、 num_neurons:3

将神经元设置为3,查看效果

layer_defs = [];
layer_defs.push({type:'input', out_sx:1, out_sy:1, out_depth:2});
layer_defs.push({type:'fc', num_neurons:3, activation: 'tanh'});
layer_defs.push({type:'fc', num_neurons:3, activation: 'tanh'});
layer_defs.push({type:'softmax', num_classes:2});net = new convnetjs.Net();
net.makeLayers(layer_defs);trainer = new convnetjs.SGDTrainer(net, {learning_rate:0.01, momentum:0.1, batch_size:10, l2_decay:0.001});

查看circle data,可以看出效果较好。
在这里插入图片描述

五、正则化

正则化 R ( w ) R(w) R(w)的作用:稳定时出现平滑边界
在这里插入图片描述

六、参数个数对结果的影响

在这里插入图片描述

七、激活函数

S i g m i o d Sigmiod Sigmiod:数值较大或较小时,梯度约为0,出现梯度消失问题
R e l u Relu Relu:当前主要使用的激活函数
在这里插入图片描述

八、数据预处理

在这里插入图片描述

九、参数初始化

通常我们都使用随机策略来进行参数初始化

十、DROP-OUT(传说中的七伤拳)

过拟合是神经网络非常头疼的一个问题!
左图是全连接神经网络,右图在神经网络训练过程中,每一层随机杀死部分神经元。DROP-OUT是防止神经网络过于复杂,进行随机杀死神经元的一种方法。
在这里插入图片描述

http://www.tj-hxxt.cn/news/55878.html

相关文章:

  • 新型干法水泥工艺设计计算及实用技术 久久建筑网关键词seo排名怎么样
  • 昆山做网站的那家好近期的重大新闻
  • 辽宁省建设工程信息网专家库怎么入网站seo方案
  • 科技网站建设重庆百度seo代理
  • sever2012做网站外贸网站建设推广公司
  • 那个公司做网站好百度seo综合查询
  • 2020互联网公司排名四川seo选哪家
  • 局机关建设网站的意义怎么做一个免费的网站
  • wordpress网站慢关键词工具有哪些
  • 网站开发人员的职能永久免费wap自助建站
  • 现代农业建设 乡网站个人主页网页设计
  • 磁业 东莞网站建设sem推广优化
  • 网站被网站建设的人控制了免费seo网站
  • 永久免费企业网站建设今日重大新闻事件
  • 扬州网站建设link5站长推荐入口自动跳转
  • 网站建设顶呱呱营销引流都有什么方法
  • b2c模式的优势和劣势性价比高seo排名
  • 如何建立自己的手机网站最近的新闻热点时事
  • 微信怎么做网站推广百度推广平台
  • 网站建设的空间指的是seo自学网
  • 网页代理软件seo企业顾问
  • 建设厅投诉网站首页数据推广公司
  • 做政府网站建设哪家好百度官网推广平台电话
  • 太原网站推广网站怎么开发
  • 电商网站的制作seo顾问张智伟
  • 政府网站建设的调查报告南京今天重大新闻事件
  • 厦门网站设计公司找哪家厦门电商系统爱站网长尾关键词挖掘工具下载
  • 用凡科帮别人做网站巢湖网站制作
  • 项目管理软件培训合肥seo排名优化公司
  • 做维修广告效最好是哪个网站吗免费的网站平台