当前位置: 首页 > news >正文

6成都网站建设微信如何开发自己的小程序

6成都网站建设,微信如何开发自己的小程序,wordpress 展开目录,互动网站建设什么意思感知机 感知机形象的来看就是我们接触过的一个只有两个部分组成#xff08;输出和输入#xff09;组成的最简单的神经网络之一。 给定输入x#xff0c;权重w和偏移b以及一个感知函数#xff0c;感知机就能输出#xff1a; 这个函数可以形象的用作二分类问题#xff0c;…感知机 感知机形象的来看就是我们接触过的一个只有两个部分组成输出和输入组成的最简单的神经网络之一。 给定输入x权重w和偏移b以及一个感知函数感知机就能输出 这个函数可以形象的用作二分类问题o输出几就可以把他作为哪个类 但是单层感知机有一个很大的局限性就是——它只能解决线性可分的问题也就是在超平面上只能构成一条线来区分数据 异或问题也就是XOR问题就是非线性可分的问题为了解决它引出了多层感知机 多层感知机 使用多层感知机就可以在超平面上构造两条线将数据区分开了 我们使用多层感知机配合上softmax计算就能解决一些多分类的问题这里把softmax也可以看做层一对一而非全连接的层输出当前样本可能是哪一个类别的概率 在每个隐藏层中都会添加激活函数来对神经元做激活常见的激活函数有SIGMOD、Relu 激活函数 激活函数都是非线性函数 SIGMOD函数能够将一个实数域的结果映射到01之间 sigmoid11exp(−x)sigmoid\frac{1}{1exp(-x)} sigmoid1exp(−x)1​ 这个激活函数在以前比较常用因为他会存在一些梯度丢失的问题导致现在也很少有人用了 目前比较常用的函数——Relu激活函数 他的数学表达很简单 ReLu(x)max(x,0)ReLu(x)max(x,0) ReLu(x)max(x,0) 本质上是一个一段分段的非线性函数 代码实现 在本节书中的代码实现中我们发现在每一个实现中为了实现一个多分类的多层个感知机使用了softmax计算但是实际上他并没有直接显式的使用softmax来计算每一个输出层神经元输出的值而是在计CrossEntropyLoss中计算了softmax # 构建模型 net nn.Sequential(nn.Flatten(), # 该层的作用是将图片展开成一个一维的向量nn.Linear(784, 256),nn.ReLU(),nn.Linear(256, 10))def init_weights(m):if type(m) nn.Linear:nn.init.normal_(m.weight, std0.01)net.apply(init_weights); # 初始化参数# 设定一些超参数 batch_size, lr, num_epochs 256, 0.1, 10 loss nn.CrossEntropyLoss(reductionnone) # 表示直接返回n分样本的loss trainer torch.optim.SGD(net.parameters(), lrlr) # 对参数使用SGD来优化# 加载数据以及训练 train_iter, test_iter d2l.load_data_fashion_mnist(batch_size) d2l.train_ch3(net, train_iter, test_iter, loss, num_epochs, trainer)# 这是那个训练函数以免不知道内部是怎么用的 def train_ch3(net, train_iter, test_iter, loss, num_epochs, updater): #save训练模型定义见第3章animator Animator(xlabelepoch, xlim[1, num_epochs], ylim[0.3, 0.9],legend[train loss, train acc, test acc])for epoch in range(num_epochs):train_metrics train_epoch_ch3(net, train_iter, loss, updater)test_acc evaluate_accuracy(net, test_iter)animator.add(epoch 1, train_metrics (test_acc,))train_loss, train_acc train_metricsassert train_loss 0.5, train_lossassert train_acc 1 and train_acc 0.7, train_accassert test_acc 1 and test_acc 0.7, test_accdef train_epoch_ch3(net, train_iter, loss, updater): #save训练模型一个迭代周期定义见第3章# 将模型设置为训练模式if isinstance(net, torch.nn.Module):net.train()# 训练损失总和、训练准确度总和、样本数metric Accumulator(3)for X, y in train_iter:# 计算梯度并更新参数y_hat net(X)l loss(y_hat, y)if isinstance(updater, torch.optim.Optimizer):# 使用PyTorch内置的优化器和损失函数updater.zero_grad()l.mean().backward()updater.step()else:# 使用定制的优化器和损失函数l.sum().backward()updater(X.shape[0])metric.add(float(l.sum()), accuracy(y_hat, y), y.numel())# 返回训练损失和训练精度return metric[0] / metric[2], metric[1] / metric[2]# metric的第一个元素是所有小批量损失函数值的总和。最后我们将它除以样本数metric[2]来得到训练集上的平均损失。因此返回的metric[0] / metric[2]是训练损失。
http://www.tj-hxxt.cn/news/141608.html

相关文章:

  • 网站建设网页设计小江泉州网站建设价钱
  • 苏州吴江太湖新城建设局网站装修网站怎么做的好
  • 网站建设小组的运营模式2023网站分享
  • 同一虚拟主机 2个网站有没有做线播放网站
  • 网站定制开发优点wordpress iis 中文
  • 网站开发前景如何大兴网站开发公司
  • 做室内设计兼职的网站wordpress建站
  • 做企业网站有哪些系统建筑工地招聘网站
  • 英迈思网站建设建筑工程网 装修
  • 网站广告下悬浮代码怎么做wordpress博客建设与经营
  • 江苏常州武进区建设局网站如何把自己电脑做网站服务器吗
  • 外贸建站与推广如何做吉林做网站多少钱
  • 珠海工商年检到哪个网站做网站开发 英文文章
  • 家政网站制作做国外零售的话是在什么网站开店
  • 学院网站建设总结可以看网站的手机浏览器
  • 用ps怎样做网站文字logo网站的风格与布局的设计
  • 有网站吗推荐一下广西兴业县建设局网站
  • asp个人网站模板下载网站开发公司如何拓展业务
  • 网站优化多少钱苏州知名互联网公司
  • 西双版纳建设厅网站专业建站培训
  • 装饰公司网站模版公司网站建设设计服务
  • 高端网站建设公司哪家服务态度好第三方推广平台
  • 建企业网站要多少钱网站优秀作品
  • 怎么做加密货币网站外贸SOHO建公司网站
  • jk网站建设网页怎么制作动画
  • 县区网站集约化平台建设研究传奇开服网
  • 网站头部固定优化网站步骤
  • 可信网站友链怎么做网站建设飠金手指排名十二
  • 万网云服务器怎么上传网站单页网站怎么卖
  • 龙岗网站制作公司成都市网站建设