当前位置: 首页 > news >正文 笔记本销售网站开发的背景衡水做wap网站的地方 news 2025/10/23 0:03:35 笔记本销售网站开发的背景,衡水做wap网站的地方,沈阳做网站 智域,怎么维护网站本文内容来自https://zhuanlan.zhihu.com/p/106763782 此文章是用于学习上述链接#xff0c;方便自己理解的笔记 1.深度学习的网络结构 深度学习是神经网络的一种特殊形式#xff0c;典型的神经网络如下图所示。 神经元#xff1a;表示输入、中间数值、输出数值点。例如方便自己理解的笔记 1.深度学习的网络结构 深度学习是神经网络的一种特殊形式典型的神经网络如下图所示。 神经元表示输入、中间数值、输出数值点。例如在上述图中的一个个小圆圈分别表示不同的神经元。权重神经元传导时要乘以一个系数这个系数叫做权重值。例如从上图中输入层的神经元要传导到中间层的神经元输入层的神经元要乘以一个系数后到达中间层即中间层输入层*权重。 不同的人对层的定义是不一样 如果将具有权重的对象称为“层”那么当前网络就是2层的如果将有神经元的结构称为“层”那么当前网络就是3层的 2.深度学习 将具有多个中间层的神经网络称之为“深度学习网络”。深度学习的本意就是“具有很深层次的网络”也就是说“有很多层的网络”。 深度学习强大的原因主要是基于以下两个方面 1。在深度学习中不需要手动提取特征系统自动提取了非常多的特征、特征组合并找出有用的特征。2。处理线性不可分问题。简单说就是通过解决一个又一个的简单问题达到解决复杂问题的目的。例如判断一张照片上的对象不断地判断“它是动物吗它是四条腿吗它会喵喵叫吗”等等这样的问题能够得到照片上的对象是一只猫还是一只狗。也类似于我们拨打“10086”最后它居然帮我们解决了我们的各种需求。 以图像识别为例假设我们要识别一幅图像内的语义信息。 可能是通过4层尽管可以叫它为5层、6层网络实现具体为 第1层提取图像的最基础的底层特征包括纹理、边缘、色彩等。第2层将第1层的特征排列组合并找到有用的组合信息。此时会找到曲线、轮廓灯特征。第3层对第2层的特征排列组合并找到有用的组合信息。此时会找到高级特征例如眼睛、鼻子、嘴等等。第4层对第3层的特征进行排列组合并找到有用的组合信息。此时会找到有用的语义信息例如打电话、奔跑等语义信息。 该过程的简单示意如下图所示。 深度学习的处理逻辑就是首先提取低级特征然后对低级特征不断地在更高的级别上进行排列组合并寻找组合后的有用信息。 3.神经网络基本结构 神经网络的基本结构分为四大类 标准网络、循环网络、卷积网络和自动编码器。 此部分学习11种主要神经网络结构图解 - 知乎 (zhihu.com) 3.1 标准网络 3.1.1 感知器 感知器是所有神经网络中最基本的也是更复杂的神经网络的基本组成部分。 它只连接一个输入神经元和一个输出神经元。 3.1.2 前馈网络 前馈网络是感知器的集合其中有三种基本类型的层: 输入层、隐藏层和输出层。 在每个连接过程中来自前一层的信号被乘以一个权重增加一个偏置然后通过一个激活函数。 前馈网络使用反向传播迭代更新参数直到达到理想的性能。 3.1.3 残差网络(Residual Networks/ResNet) 深层前馈神经网络的一个问题是所谓的梯度消失即当网络太深时有用的信息无法在整个网络中反向传播。 当更新参数的信号通过网络传播时它会逐渐减少直到网络前面部分的权重不再改变或者根本不再使用。 为了解决这个问题残差网络使用跳过连接实现信号跨层传播。 通过使用这种不易受到影响的连接来减少梯度消失问题。 随着时间的推移通过学习特征空间网络学会了重建跳过的层但训练更有效因为它的梯度不容易消失和需要探索更少的特征空间。 3.2 循环网络Recurrent Neural Network RNN 循环神经网络是一种特殊类型的网络它包含环和自重复因此被称为“循环”。由于允许信息存储在网络中RNNs 使用以前训练中的推理来对即将到来的事件做出更好、更明智的决定。 为了做到这一点它使用以前的预测作为“上下文信号”。 由于其性质RNNs 通常用于处理顺序任务如逐字生成文本或预测时间序列数据(例如股票价格)。 它们还可以处理任意大小的输入。 3.3 卷积网络Convolutional Neural Network, CNN 图像具有非常高的维数因此训练一个标准的前馈网络来识别图像将需要成千上万的输入神经元除了显而易见的高计算量还可能导致许多与神经网络中的维数灾难相关的问题。 卷积神经网络提供了一个解决方案利用卷积和池化层来降低图像的维度。 由于卷积层是可训练的但参数明显少于标准的隐藏层它能够突出图像的重要部分并向前传播每个重要部分。 传统的CNNs中最后几层是隐藏层用来处理“压缩的图像信息”。卷积神经网络在基于图像的任务上表现良好例如将图像分类为狗或猫。 3.4 自动编码器Autoencoder 自动编码器的基本思想是将原始的高维数据“压缩”成高信息量的低维数据然后将压缩后的数据投影到一个新的空间中。 自动编码器有许多应用包括降维、图像压缩、数据去噪、特征提取、图像生成和推荐系统。 它既可以是无监督的方法也可以是有监督的可以得到对数据本质的洞见。 隐藏的神经元可以替换为卷积层以便处理图像。 4.激活函数 学习了https://zhuanlan.zhihu.com/p/678231997 、深度学习笔记如何理解激活函数附常用激活函数 - 知乎 (zhihu.com)和神经网络的基本结构 - 知乎 (zhihu.com) 由于不同的神经元有不同的激活值如果一个神经元的激活值过大例如一亿。那么会导致最后输出的结果过于离谱。所以我们需要把太大的数字调小一点太小的数字调高一点让数据更加的靠谱。做到这一步是通过激活函数来实现的。 因为神经网络中每一层的输入输出都是一个线性求和的过程下一层的输出只是承接了上一层输入函数的线性变换所以如果没有激活函数那么无论你构造的神经网络多么复杂有多少层最后的输出都是输入的线性组合纯粹的线性组合并不能够解决更为复杂的问题。而引入激活函数之后我们会发现常见的激活函数都是非线性的因此也会给神经元引入非线性元素使得神经网络可以逼近其他的任何非线性函数这样可以使得神经网络应用到更多非线性模型中。 激活函数可以分为线性激活函数线性方程控制输入到输出的映射如f(x)x等以及非线性激活函数非线性方程控制输入到输出的映射比如Sigmoid、Tanh、ReLU、LReLU、PReLU、Swish 等 。 Sigmoid 函数能将输入值压缩到0和1之间常用于二分类问题的输出层。Tanh 函数与Sigmoid类似但输出范围是-1到1常用于二分类问题的输出层。ReLU 函数当输入值大于0时输出值等于输入值当输入值小于等于0时输出值为0。ReLU是目前最常用的激活函数之一因为它能够缓解梯度消失问题。Leaky ReLU 函数在输入值小于0时输出值为0.01乘以输入值在输入值大于0时输出值等于输入值。这种激活函数可以解决ReLU激活函数在负数区域的问题。PReLU 函数在输入值小于0时输出值为0.2乘以输入值的绝对值在输入值大于0时输出值等于输入值。这种激活函数也可以解决ReLU激活函数在负数区域的问题。 **注Sigmoid、Tanh、ReLU、LReLU、PReLU、Swish都是非线性激活函数它们都在人工神经网络中起到关键的作用。非线性激活函数如Sigmoid和Tanh可以将输入的线性组合转化为非线性输出。 Sigmoid函数的公式为S(x)1/(1exp(-x))它将输入的每个值压缩到0和1之间。但是当输入值远离0时Sigmoid函数的梯度将接近于0这可能会导致在训练过程中出现梯度消失的问题。 Tanh函数与Sigmoid函数类似但它是零中心的也就是说它的输出范围在-1到1之间。然而Tanh函数也存在饱和问题。 ReLURectified Linear Unit函数对正数原样输出负数直接置零。它在正数区域不饱和在负数区域硬饱和。ReLU函数计算上比Sigmoid或者Tanh更省计算量因为不用exp因而收敛较快。能够帮助解决sigmoid随着层数的增加梯度衰减现象。但是还是非zero-centered。 LReLULeaky ReLU是ReLU的变体区别在于它不是将所有负值设为零而是引入一个小的正数斜率。PReLUParametric ReLU是另一个ReLU的变体其参数化负数部分允许网络学习负数斜率的最佳值。 Swish是一种自门控激活函数其计算公式为f(x) x / ( 1 e^(-x) )。 以上激活函数的具体讲解请查看深度学习笔记如何理解激活函数附常用激活函数 - 知乎 (zhihu.com) 5.损失函数 损失函数用来计算具体正确的判断距离。越小说明越接近真实判断。 例如 假设A是身高B是体重C是男女。性别1男0女。 假设小明的身高是2米体重是20kg。小红的是1米10千克。它们和C的权重都是1。 那么没有经过标准化处理的C为 C小明2*120*122C小红1*110*111。 假设经过标准化处理的C为 C小明0.99C小红0.8。 那么系统对小明的判断是正确的因为0.99约等于1但是对于小红的判断是错误的因为小红是女生这个值应该是越接近0越好。我们直接用减法确定预测数据和真实数据的距离来定义损失函数。那么这个时候损失函数Loss|1-0.90-0.8|0.9。前面说了这个数字越小越好。这个时候是0.9。 这个时候应该怎么办呢我们回头改变一下权重和偏置把身高的权重改成10把偏置改成-20看看会发生什么。那么没有经过标准化处理的C为 C小明2*10身高权重20-20偏置20 C小红1*1010-200 好了这下不用经过标准化处理也知道小明的C值将会变成1而小红会变成0。这下就成功完成了分类。为了弄懂不要管Sigmoid的真实计算结果 这个时候 LossLoss|1-10-0|0损失函数降为0那么这个模型就是一个完全拟合的模型。 损失函数在模型训练阶段发挥着重要的作用。每个批次的训练数据送入模型后通过前向传播输出预测值然后损失函数会计算出预测值和真实值之间的差异值也就是损失值。得到损失值之后模型通过反向传播去更新各个参数以降低真实值与预测值之间的损失使得模型生成的预测值更接近真实值从而达到学习的目的。 关于如何选择损失函数需要考虑以下因素 回归问题均方误差、平均绝对误差等。分类问题交叉熵、对数损失等。排名问题平均精度差、有序列表挖掘的损失等 。 损失函数详解 六个深度学习常用损失函数总览基本形式、原理、特点-腾讯云开发者社区-腾讯云 (tencent.com) Pytorch学习之十九种损失函数_pytorch损失函数-CSDN博客 6.反向传播算法的原理和应用 机器学习笔记丨神经网络的反向传播原理及过程图文并茂浅显易懂_神经网络反向传播原理-CSDN博客 反向传播算法(Backpropagation简称BP算法)是“误差反向传播”的简称是适合于多层神经元网络的一种学习算法它建立在梯度下降法的基础上。 BP算法的学习过程由正向传播过程和反向传播过程组成。 在正向传播过程中输入信息通过输入层经隐含层逐层处理并传向输出层。如果预测值和真实值不一样则取输出与期望的误差的平方和作为损失函数损失函数有很多这是其中一种。 将正向传播中的损失函数传入反向传播过程逐层求出损失函数对各神经元权重的偏导数作为目标函数对权重的梯度。根据这个计算出来的梯度来修改权重网络的学习在权重修改过程中完成。误差达到期望值时网络学习结束。 6.1 计算误差 第一步是计算神经网络的输出(预测值)和真值的误差。 图中y为我们神经网络的预测值由于这个预测值不一定正确所以我们需要将神经网络的预测值和对应数据的标签来比较计算出误差。误差的计算有很多方法比如上面提到的输出与期望的误差的平方和熵(Entropy)以及交叉熵等。计算出的误差记为 δ . 反向传播顾名思义是从后向前传播的一种方法。因此计算完误差后需要将这个误差向不断的向前一层传播。向前一层传播时需要考虑到前一个神经元的权重系数(因为不同神经元的重要性不同因此回传时需要考虑权重系数)。 与前向传播时相同反向传播时后一层的节点会与前一层的多个节点相连因此需要对所有节点的误差求和。 到此为止已经计算出了每个神经元的误差接下来将更新权重。 6.2更新权重 图中的η 代表学习率w′是更新后的权重通过这个式子来更新权重。这个式子具体是怎么来的请看机器学习笔记丨神经网络的反向传播原理及过程图文并茂浅显易懂_神经网络反向传播原理-CSDN博客第四部分具体例子。 7. 卷积神经网络CNN算法和模型 卷积神经网络CNN是一种深度学习算法主要应用于图像识别领域。CNN的价值在于其能够将大数据量的图片有效地降维成小数据量同时保留图片的特征这类似于人类的视觉原理。 CNN的基本结构主要包括卷积层、池化层和全连接层1. 卷积层这是CNN的核心部分主要用于提取图像的特征。通过卷积操作可以捕捉到图像中的局部特征。2. 池化层其主要作用是降低数据的维度同时保留重要的特征信息。这有助于减少网络的复杂性提高计算效率。3. 全连接层在卷积层和池化层提取并处理了图像的特征后全连接层用于对特征进行高级处理并输出最终的分类结果。 7.1 CNN的常用层结构和参数设置 卷积神经网络CNN的常用层结构和参数设置主要包含以下几个部分 1. 数据输入层这是网络的第一层用于接收原始图像数据。在处理原始图像数据时通常需要进行预处理包括去均值和归一化等操作。输入图像的尺寸通常是可以被2整除多次的像素值矩阵常用的数字包括32,64,96,224,384和512。 2. 卷积计算层也被称为CONV层是网络的核心部分主要用于从输入图像中提取特征。这一层会通过多个不同的滤波器或卷积核对输入图像进行卷积操作以提取出图像的不同特征。 3. ReLU激励层这一层的主要作用是对上一层输出的结果进行非线性变换增强网络的表达能力。常用的激活函数包括ReLU、Sigmoid和Tanh等。 4. 池化层池化层的作用主要是降低数据的维度同时保留重要的特征信息。常用的池化方法有Max Pooling和Average Pooling等。 5. 全连接层全连接层通常位于网络的最后部分用于将之前提取并处理的特征进行高级处理并输出最终的分类结果。 值得注意的是CNN的设计选择和参数设定会严重影响网络的训练和表现。例如滤波器的大小、步长以及填充方式等都需要根据具体的应用场景和需求来设定。此外虽然很多架构的选择都是凭借直觉而非有充分的数学论证但这些直觉往往是基于大量的实验结果。 文章转载自: http://www.morning.clpkp.cn.gov.cn.clpkp.cn http://www.morning.elbae.cn.gov.cn.elbae.cn http://www.morning.cklld.cn.gov.cn.cklld.cn http://www.morning.touziyou.cn.gov.cn.touziyou.cn http://www.morning.lwmxk.cn.gov.cn.lwmxk.cn http://www.morning.pzlcd.cn.gov.cn.pzlcd.cn http://www.morning.mgmqf.cn.gov.cn.mgmqf.cn http://www.morning.ggnkt.cn.gov.cn.ggnkt.cn http://www.morning.jbqwb.cn.gov.cn.jbqwb.cn http://www.morning.ggrzk.cn.gov.cn.ggrzk.cn http://www.morning.tkcct.cn.gov.cn.tkcct.cn http://www.morning.c7507.cn.gov.cn.c7507.cn http://www.morning.mlpmf.cn.gov.cn.mlpmf.cn http://www.morning.sjqml.cn.gov.cn.sjqml.cn http://www.morning.pprxs.cn.gov.cn.pprxs.cn http://www.morning.khtyz.cn.gov.cn.khtyz.cn http://www.morning.qkrqt.cn.gov.cn.qkrqt.cn http://www.morning.zmnyj.cn.gov.cn.zmnyj.cn http://www.morning.rlwgn.cn.gov.cn.rlwgn.cn http://www.morning.ghcfx.cn.gov.cn.ghcfx.cn http://www.morning.lfpzs.cn.gov.cn.lfpzs.cn http://www.morning.bpmdx.cn.gov.cn.bpmdx.cn http://www.morning.glrzr.cn.gov.cn.glrzr.cn http://www.morning.wrfk.cn.gov.cn.wrfk.cn http://www.morning.rhkmn.cn.gov.cn.rhkmn.cn http://www.morning.kmkpm.cn.gov.cn.kmkpm.cn http://www.morning.klwxh.cn.gov.cn.klwxh.cn http://www.morning.dwgcx.cn.gov.cn.dwgcx.cn http://www.morning.czlzn.cn.gov.cn.czlzn.cn http://www.morning.yxplz.cn.gov.cn.yxplz.cn http://www.morning.btjyp.cn.gov.cn.btjyp.cn http://www.morning.wgqtj.cn.gov.cn.wgqtj.cn http://www.morning.fqhbt.cn.gov.cn.fqhbt.cn http://www.morning.pynzj.cn.gov.cn.pynzj.cn http://www.morning.tstwx.cn.gov.cn.tstwx.cn http://www.morning.grynb.cn.gov.cn.grynb.cn http://www.morning.spsqr.cn.gov.cn.spsqr.cn http://www.morning.elsemon.com.gov.cn.elsemon.com http://www.morning.pxwzk.cn.gov.cn.pxwzk.cn http://www.morning.jbtzx.cn.gov.cn.jbtzx.cn http://www.morning.lbssg.cn.gov.cn.lbssg.cn http://www.morning.byywt.cn.gov.cn.byywt.cn http://www.morning.qytby.cn.gov.cn.qytby.cn http://www.morning.mtcnl.cn.gov.cn.mtcnl.cn http://www.morning.fxzw.cn.gov.cn.fxzw.cn http://www.morning.cwwbm.cn.gov.cn.cwwbm.cn http://www.morning.mtgnd.cn.gov.cn.mtgnd.cn http://www.morning.ksgjy.cn.gov.cn.ksgjy.cn http://www.morning.zpyxl.cn.gov.cn.zpyxl.cn http://www.morning.tlzbt.cn.gov.cn.tlzbt.cn http://www.morning.wylpy.cn.gov.cn.wylpy.cn http://www.morning.gqtw.cn.gov.cn.gqtw.cn http://www.morning.wqbhx.cn.gov.cn.wqbhx.cn http://www.morning.tgyqq.cn.gov.cn.tgyqq.cn http://www.morning.qgxnw.cn.gov.cn.qgxnw.cn http://www.morning.ktfbl.cn.gov.cn.ktfbl.cn http://www.morning.cfjyr.cn.gov.cn.cfjyr.cn http://www.morning.lizpw.com.gov.cn.lizpw.com http://www.morning.wrlqr.cn.gov.cn.wrlqr.cn http://www.morning.srgyj.cn.gov.cn.srgyj.cn http://www.morning.fpqsd.cn.gov.cn.fpqsd.cn http://www.morning.hdwjb.cn.gov.cn.hdwjb.cn http://www.morning.rzcmn.cn.gov.cn.rzcmn.cn http://www.morning.cbvlus.cn.gov.cn.cbvlus.cn http://www.morning.ssjry.cn.gov.cn.ssjry.cn http://www.morning.ygkb.cn.gov.cn.ygkb.cn http://www.morning.kjlhb.cn.gov.cn.kjlhb.cn http://www.morning.rblqk.cn.gov.cn.rblqk.cn http://www.morning.tpdg.cn.gov.cn.tpdg.cn http://www.morning.mmkrd.cn.gov.cn.mmkrd.cn http://www.morning.dskzr.cn.gov.cn.dskzr.cn http://www.morning.qrnbs.cn.gov.cn.qrnbs.cn http://www.morning.kfhm.cn.gov.cn.kfhm.cn http://www.morning.yrbq.cn.gov.cn.yrbq.cn http://www.morning.bxrqf.cn.gov.cn.bxrqf.cn http://www.morning.fwkjp.cn.gov.cn.fwkjp.cn http://www.morning.mlcwl.cn.gov.cn.mlcwl.cn http://www.morning.wmdbn.cn.gov.cn.wmdbn.cn http://www.morning.bnpcq.cn.gov.cn.bnpcq.cn http://www.morning.qwbls.cn.gov.cn.qwbls.cn 查看全文 http://www.tj-hxxt.cn/news/241032.html 相关文章: 企业开源建站系统翻译类公司网站模板 挂机宝 可以做网站s网站建设 百度网站怎么做的赚钱销售网站建设的意义 安徽网站建设认准-晨飞网络友情链接实例 网站开发成本预算价目表中小学网站建设论文 网站域名是不是网址wordpress高级插件 网站建设官网刷神马网站优化排名 如何加强旅游电子商务网站的建设乐都营销型网站建设 网站代码结构常州溧阳市建设局网站 wordpress 仿站交叉情人节网站源码下载 龙岗区住房和建设局在线网站wordpress add_menu_page 做网站每个月可以赚多少巨量关键词搜索查询 gif动图素材网站凡客诚品官方网店下 购物网站开发面试金华专业做网站 响应式网站自助查电商官网 大气手机网站建设网站方向 做网站时字幕怎么做适合大学生做的兼职网站有哪些 让网站会员做产品标签确认邯郸怎么读 做微商网站的公司h5动画制作软件 网站如何换域名十大深夜看黄禁用免费撒娇 温州微网站制作公司推荐上市公司网站建设方案 如何设计制作一个网站网页升级访问紧急大通知狼 站长工具seo综合查询工具请稍后重试(3008) wordpress后台seo人才网 双语言网站源码网站开发的标准 长春建站做一件代发的网站 河北省建设厅办事大厅网站学做ppt的网站 免费下载 中国全球门户网站服务商 什么网站可以在家做美工兼职泰国服务器租用 用户体验网站云南小程序开发制作公司