当前位置: 首页 > news >正文

什么行业需要做网站和推广四川省建设学习网

什么行业需要做网站和推广,四川省建设学习网,县直门户网站建设管理,平面设计公司赚钱吗以下部分文字资料整合于网络#xff0c;本文仅供自己学习用#xff01; 一、计算机视觉概述 如果输入层和隐藏层和之前一样都是采用全连接网络#xff0c;参数过多会导致过拟合问题#xff0c;其次这么多的参数存储下来对计算机的内存要求也是很高的 解决这一问题#x… 以下部分文字资料整合于网络本文仅供自己学习用 一、计算机视觉概述 如果输入层和隐藏层和之前一样都是采用全连接网络参数过多会导致过拟合问题其次这么多的参数存储下来对计算机的内存要求也是很高的 解决这一问题就需要用到——卷积神经网络 这是一种理解卷积的角度至少在吴恩达老师这个教学视频中是也是我之前没有想到的。其实在该刚开始接受卷积神经网络时我一直很想弄清卷积的真正含义为此也学习了一些和有自己的一些理解详见后文2.6小节 二、卷积神经网络 2.1卷积运算 卷积运算是卷积神经网络的基本组成单元之一 这里将从边缘检测edge detection)入手举例来介绍卷积神经网络 通过这种卷积运算我们可以检测到图像的边缘我们把中间的3x3的矩阵称为过滤器、边缘检测器、卷积核 下面来讲如何将这种卷积运算作为基本单元运用到卷积神经网络中。 正边缘(positive edges)和负边缘(negative edges):由亮变暗和由暗变亮 其他的边缘检测器卷积核 如何让算法自己学习得到边缘检测器而不是像上面那样手动设计传统的计算机视觉——卷积神经网络 原理就是把卷积核中的数看作参数利用反向传播back propagation)去学习 这种学习得到的卷积核会比计算机视觉研究人员所精心选择的更加稳定 在具体讲如何利用反向传播来学习得到卷积核的这9个参数之前让我们学习一下卷积神经网络——卷积计算的底层架构的非常重要的组成部分 2.1.1填充(padding) 首先看不对图像做填充的情况 即nxn的图像和fxf的卷积核进行卷积得到结果大小为(n-f1)x(n-fq) 这样卷积的缺点有 shrinky output:这样得到的卷积结果会比原图像小而没通过一层这样的卷积图像就会缩小在深层卷积神经网络中最后得到的图像就会非常的小throw away info from the edge:丢失边缘像素的信息。即对比于图像中其他像素提供的信息边缘像素在卷积过程中只被利用一次或少次这样我们会丢失掉一些边缘信息。 所以为了解决这两个问题使用填充对原图像进行像素填充 总结一下上面其实涉及到两种常用卷积 valid convolutions:即不对原图像进行任何填充same convolutions:对原图像进行填充并且保证卷积结果图像和原图像大小相同 由上图可知对于Same convolutions我们通常需要保证卷积核fxf的f为奇数时才可保证p (f-1)/2 使得卷积结果大小与原图像大小相同。这也解释了为什么通常我们所使用的卷积核大小都是3x3和5x5。另外一个原因是当卷积核是奇数时会有一个中心像素点事实上对图像进行卷积时这个特殊的中心像素点是不可或缺的你可以试想一下如果卷积核是偶数你该如何卷积中心像素可以很好的描述卷积核的位置使用奇数的卷积核这也是计算机视觉所约定俗成的一种传统。 2.1.2步长(stride) 上文所讲到的也是默认卷积运算中步长为1事实上步长也是可以设定的。和padding一样步长不同也会影响卷积结果。下图是设置步长为2时的卷积示例 总结一下注意这里的向下取整的实际含义是保证卷积核始终在原图像填充后的那个图像中而不能超出 2.1.3交叉相关(cross-correlation) 这一小节其实是一个概念补充。事实上学过数字信号处理的话对于图像卷积图像其实就是一个2维的数字信号会将卷积核进行翻转后再进行元素相乘、相加。事实上在计算机视觉领域省略了翻转这一步骤而是直接进行相乘、相加所以在数学领域会将其称为交叉相关corss-correlation)但是在深度学习和计算机视觉及其相关文献中通常还是会将其称为卷积convolutions). 2.1.43维卷积 事实上上面所讲到的卷积都是对于2维图像而言也就是灰度图也成为二维卷积。而对于包含RGB这种三维图像则属于三维卷积 但是你可能和我一样有相同的疑问这有什么用呢得到的结果还是二维 像下图展示这样通过设置3D卷积核不同通道的参数值你可以选择只检测红色通道的边缘同时把其他通道的卷积核的参数值设置为0.或者只是把三个通道的卷积核参数设置为一样这样的意义在于即使输入进来的是RGB图像也可以不用将其转为灰度图像而直接进行卷积计算效果也是一样的。 还有一个问题就是上文中我们只是单单检测一种边缘——垂直。如果想同时检测多种边缘呢比如同时检测水平和竖直边缘。那么我们需要多个检测器或者说多个3D卷积核、过滤器就像下图这样。但是注意到得到的卷积结果的第三维度的大小就是使用的3D卷积核的个数。 2.2卷积网络的一层 对卷积结果进行每个元素相加偏差b并对其进行非线性变化再对各个3D卷积核得到的结果进行整合于是得到4x4x2的一层卷积网络的输出结果。 2.2.1和传统神经网络的对比 其实过程还是一致的 首先进行线性运算将输入a[0]和参数W对应的就是卷积核进行相乘再相加再加上偏差b最后通过激活函数即进行非线性变换 在上面例子中我们有2个3D卷积核也就是说有2个特征features)——卷积核的个数代表特征是必须get到的特别是在之后理解为什么卷积神经网络的底层原理上不是卷积神经网络是什么而是卷积神经网络为什么能行。 我们再来解释一下本文最开始提到的传统的全连接神经网络容易过拟合的问题图像增大则参数增多而为什么卷积网络不会。 如下图不管输入图像多大卷积网络这一层需要通过训练从而学习得到的参数个数总是固定的(271)x10.由此可知卷积神经网络不易产生过拟合overfitting)的问题。 2.2.2Summary of notations 注意在一些文献中会把通道数放在前面宽、高放在后面 2.3卷积神经网络的简单实例 如下图经过几层卷积后最后被一步会把得到的卷积结果进行flatten展平输入进全连接神经网络通过逻辑回归或softmax进行分类。 这里我们可以观察到的是输入图像通常比较大但随着卷积神经网络的深入与开始图像会保持大小几乎不变但随着输入图像会逐渐变小而通道数逐渐增加。 2.3.1超参数(hyperparameter) 如上图我们把箭头下方的那些参数filter的个数、步长、padding…)称为超参数选择这些超参数是卷积神经网络设计过程中的主要工作。 2.3.2组成 在一个典型的卷积神经网络中完整应该由以下3部分组成 卷积层池化层全连接层 2.3.3卷积层的多层叠加 我们前面提到过随着卷积层的深入通道数增大而图像减小。这样得到的好处是每层使用较小的卷积核如3x3也能获得更大的感受野只要叠加更多的卷积层就能让感受野覆盖到整个图片。这也是为什么我们需要使用多个卷积层进行叠加。 那什么又是感受野呢 2.3.4感受野Receptive Field 感受野是一个非常重要的概念receptive field往往是描述两个feature maps A/B上神经元的关系假设从A经过若干个操作得到B,这时候B上的一个区域areaB只会跟a上的一个区域areaA相关这时候areaA成为areaB的感受野。用图片来表示 在上图里面map3里1x1的区域对应map2的receptive field是那个红色的7x7的区域而map2里7x7的区域对应于map1的receptive field是蓝色的11x11的区域所以map3里1x1的区域对应map 1的receptive field是蓝色的11x11的区域。 2.4池化层 我们先来看两种池化类型的示例 2.4.1原理 池化操作的作用有两个 减轻计算负担增加感受野 吴恩达老师在视频中也说到过池化操作背后深刻的原理其实也不见得有人能说得透彻清除本质上就是因为实验效果好可以加。 其实非要去理解的话也是可以的因为图像本身就是存在冗余信息的用4个像素所表示特征信息可以用1个像素代替。从原图像中进行最大值或均值采样后也就是所谓的池化可以更好的把图像中的特征得到、识别既然这样能加为什么不加呢 还需要补充一点是在alphaGo的算法背后利用的也是卷积神经网络不同的是只有卷积层而没有池化层因为在棋盘上每一个像素点都至关重要不能因为减轻计算负担而随意舍去。这也是理解池化的一个例子。 2.4.2总结 需要注意两点 池化层的超参数是人工设定的不需要通过训练从而学习得到池化层的最大值和平均值采样是单独作用于输入的每一个通道的。池化结果的通道数和输入的通道数相同。 2.5完整的卷积神经网络示例 注意由于池化层没有需要学习的参数只有超参数所以通常会把卷积层和池化层两层统称为一层——1 layer 当然关于卷积层和池化层的安排上图只是一种示例实际上还有可能是多个卷积层后面跟着一个池化层或者一些特殊场景如上文提到过的alphaGo的棋盘例子中根本没有池化层。 你需要清除以下几点 池化层没有任何需要学习的参数卷积层趋向于拥有越来越少的参数多数参数存在于全连接神经网络上 2.6卷积神经网络的原理 其实上文一直在谈的是——卷积神经网络是什么由什么组成等等。但是我觉得最重要的还是理解为什么为什么卷积神经网络可以。虽然在本文最开始也把传统的全连接神经网络和带卷积的神经网络进行的简单的对比说明为什么需要采用卷积而不是全连接但我觉得那只是一方面 首先我们需要理解卷积神经网络其实是计算机视觉深度学习。在之前的机器学习中我们知道通过输入数据可以很好的进行分类、回归。将计算机视觉和深度学习结合起来其实本质还是一样的不同的在于输入的数据这也是为什么需要加入卷积层而不能直接运用全连接层处理数据的原因。 比如之前讲的预测房价输入就是房子大小、年龄这些基本的单特征。而对于计算机而言你给它一张图片只是一个三维或者二维矩阵没有任何特征信息换句话来说直接把图片输入到全连接神经网络即将像素点作为特征这样的特征难以利用和复用以及进行比较。而卷积层的作用呢提取特征而且是有用的可复用的局部特征。通过卷积层提取到特征并输入到全连接层进行相应的和之前机器学习中学到的传统的全连接神经网络进行特征信息处理并进行预测一模一样。一言蔽之卷积神经网络识别图像的第一步利用卷积层提取图像的局部特征。 OK现在我们理解了卷积的作用——提取图像中的特征信息。我们现在的问题就缩小到了——卷积为什么能提取特征提取的特征又是如何形式的为什么这种方式提取的特征有效 2.6.1特征提取 从上文所讲的卷积操作以及下面卷积操作结果的直观感受卷积操作确实能提取特征。例如下图就利用垂直卷积核和水平卷积核将图像中的垂直边缘信息和水平边缘信息提取出来。 到这里我们知道两点 卷积操作确实可以提取局部特征不同的特征需要设计不同的卷积核而在神经网络中卷积核中的参数无需手动设计网络会自己学习 关于卷积操作为什么能提取特征背后的本质和卷积核到底充当一个什么角色深入理解的话那就需要了解下面所讲的傅里叶变换和加窗傅里叶变换 2.6.2加窗傅里叶变换 卷积的本质是二维的加窗傅里叶变换。学过信号与系统的话大致对傅里叶变换有一个理解我之前也专门写了一篇理解傅里叶变换的博客傅里叶变换和其图像处理中的应用。这里的卷积核其实就是类比于傅里叶基通过利用卷积核对二维图像数据进行卷积操作加窗傅里叶变换其实是将图像中和卷积核相似的特征信息提取出来说白了如果卷积核套在这块像素和卷积核想表达的特征相似那么这次卷积得到的中心像素值就大也就是这块存在这种卷积特征。 这也是为什么上文讲卷积操作时吴恩达老师会说有几个卷积核也就是有几个特征的含义。 不过需要注意的是不像上图中那些规则的卷积核神经网络中卷积核的样子也就是卷积核的参数是由反向传播学习得到的具体卷积核的样子也是等到训练结束后才得知。 比如下面举例识别字母X的例子。我们假设一开始卷积核模板已经学习得到或者设计好即以下三个特征模式/卷积核/过滤器。 当利用相应的模板卷积核对其进行卷积操作时与模板特征匹配越高在中心像素点位置的值也就越高响应越高——本质上就是在这个位置捕捉到了这个卷积核对应的特征 然后向之前一样用过滤器将原图像分别卷积一遍得到3个feature map feature map 是特征图的意思是指每个卷积核和输入卷积后形成的特征图特征图的个数和卷积核的个数相同 思考我们可以看到这样得到的特征信息包含两个方面 这个位置存在什么特征这个特征存在的位置 结合位置特征这两个信息将其展平并不会丢失信息输入全连接神经网络神经网络开始干活对特征信息进行像传统神经网络该做的事情进行预测。 当然上面这个例子过于简单只有一层多层神经网络和池化我们也讲到其实还是为了获得更大的感受野和减轻计算负担本质上还是一样的 所以为什么经常会看到说对比于传统的计算机视觉卷积神经网络可以自己学习特征说到底就是通过反向传播学习这些卷积核里的参数。 2.6.3卷积神经网络特征图可视化 接下来我们对特征图feature map进行可视化来深入了解 定义了一个4层的卷积每个卷积层分别包含9个卷积、Relu激活函数和尺度不等的池化操作系数全部是随机初始化 输入原图 第一层卷积后可视化的特征图 第二层卷积后可视化的特征图 第三层卷积后可视化的特征图 第四层卷积后可视化的特征图 从不同层可视化出来的特征图大概可以总结出一点规律 浅层网络提取的是纹理、细节特征深层网络提取的是轮廓、形状、最强特征(如猫的眼睛区域)——或者说是前面特征卷积核叠加效果的通用、最强特征个人直觉上但看一层的特征当然看起来似乎不可解释但是实际上最后得到的特征图是建立在前面那么多卷积核作用之后的。浅层网络包含更多的特征也具备提取关键特征(如第一组特征图里的第4张特征图提取出的是猫眼睛特征)的能力相对而言层数越深提取的特征越具有代表性图像的分辨率是越来越小的 以上是个人结合一些视频和文章资料学习、整合和加入自己理解所写能力有限若有欠妥地方欢迎评论区讨论和指正
文章转载自:
http://www.morning.rmrcc.cn.gov.cn.rmrcc.cn
http://www.morning.xpfwr.cn.gov.cn.xpfwr.cn
http://www.morning.ltpzr.cn.gov.cn.ltpzr.cn
http://www.morning.gywxq.cn.gov.cn.gywxq.cn
http://www.morning.zcsyz.cn.gov.cn.zcsyz.cn
http://www.morning.bcdqf.cn.gov.cn.bcdqf.cn
http://www.morning.jbtlf.cn.gov.cn.jbtlf.cn
http://www.morning.yrdt.cn.gov.cn.yrdt.cn
http://www.morning.ztmnr.cn.gov.cn.ztmnr.cn
http://www.morning.bsjxh.cn.gov.cn.bsjxh.cn
http://www.morning.yrskc.cn.gov.cn.yrskc.cn
http://www.morning.rmqmc.cn.gov.cn.rmqmc.cn
http://www.morning.fjkkx.cn.gov.cn.fjkkx.cn
http://www.morning.ndngj.cn.gov.cn.ndngj.cn
http://www.morning.kongpie.com.gov.cn.kongpie.com
http://www.morning.rlhgx.cn.gov.cn.rlhgx.cn
http://www.morning.tnmmp.cn.gov.cn.tnmmp.cn
http://www.morning.qqtzn.cn.gov.cn.qqtzn.cn
http://www.morning.gthc.cn.gov.cn.gthc.cn
http://www.morning.wnkqt.cn.gov.cn.wnkqt.cn
http://www.morning.xpzgg.cn.gov.cn.xpzgg.cn
http://www.morning.whothehellami.com.gov.cn.whothehellami.com
http://www.morning.kmqlf.cn.gov.cn.kmqlf.cn
http://www.morning.mqss.cn.gov.cn.mqss.cn
http://www.morning.xcyhy.cn.gov.cn.xcyhy.cn
http://www.morning.shprz.cn.gov.cn.shprz.cn
http://www.morning.nlnmy.cn.gov.cn.nlnmy.cn
http://www.morning.msgcj.cn.gov.cn.msgcj.cn
http://www.morning.ltbwq.cn.gov.cn.ltbwq.cn
http://www.morning.znpyw.cn.gov.cn.znpyw.cn
http://www.morning.addai.cn.gov.cn.addai.cn
http://www.morning.sypby.cn.gov.cn.sypby.cn
http://www.morning.qttft.cn.gov.cn.qttft.cn
http://www.morning.wfyzs.cn.gov.cn.wfyzs.cn
http://www.morning.wnxqf.cn.gov.cn.wnxqf.cn
http://www.morning.wdshp.cn.gov.cn.wdshp.cn
http://www.morning.cytr.cn.gov.cn.cytr.cn
http://www.morning.qywfw.cn.gov.cn.qywfw.cn
http://www.morning.sjwzl.cn.gov.cn.sjwzl.cn
http://www.morning.pbdnj.cn.gov.cn.pbdnj.cn
http://www.morning.llmhq.cn.gov.cn.llmhq.cn
http://www.morning.pndhh.cn.gov.cn.pndhh.cn
http://www.morning.ljzss.cn.gov.cn.ljzss.cn
http://www.morning.ffksr.cn.gov.cn.ffksr.cn
http://www.morning.sxjmz.cn.gov.cn.sxjmz.cn
http://www.morning.gbtty.cn.gov.cn.gbtty.cn
http://www.morning.kfcz.cn.gov.cn.kfcz.cn
http://www.morning.kczkq.cn.gov.cn.kczkq.cn
http://www.morning.wfhnz.cn.gov.cn.wfhnz.cn
http://www.morning.qdrrh.cn.gov.cn.qdrrh.cn
http://www.morning.qfplp.cn.gov.cn.qfplp.cn
http://www.morning.yhwmg.cn.gov.cn.yhwmg.cn
http://www.morning.sblgt.cn.gov.cn.sblgt.cn
http://www.morning.lynmt.cn.gov.cn.lynmt.cn
http://www.morning.jwsrp.cn.gov.cn.jwsrp.cn
http://www.morning.kxypt.cn.gov.cn.kxypt.cn
http://www.morning.pyncx.cn.gov.cn.pyncx.cn
http://www.morning.lgznf.cn.gov.cn.lgznf.cn
http://www.morning.bfycr.cn.gov.cn.bfycr.cn
http://www.morning.wlxfj.cn.gov.cn.wlxfj.cn
http://www.morning.ttfh.cn.gov.cn.ttfh.cn
http://www.morning.fbjnr.cn.gov.cn.fbjnr.cn
http://www.morning.lxcwh.cn.gov.cn.lxcwh.cn
http://www.morning.duqianw.com.gov.cn.duqianw.com
http://www.morning.zcnfm.cn.gov.cn.zcnfm.cn
http://www.morning.pmdnx.cn.gov.cn.pmdnx.cn
http://www.morning.nnpfz.cn.gov.cn.nnpfz.cn
http://www.morning.jpbpc.cn.gov.cn.jpbpc.cn
http://www.morning.cyjjp.cn.gov.cn.cyjjp.cn
http://www.morning.kxltf.cn.gov.cn.kxltf.cn
http://www.morning.qywfw.cn.gov.cn.qywfw.cn
http://www.morning.pakistantractors.com.gov.cn.pakistantractors.com
http://www.morning.fhddr.cn.gov.cn.fhddr.cn
http://www.morning.jmbgl.cn.gov.cn.jmbgl.cn
http://www.morning.mzgq.cn.gov.cn.mzgq.cn
http://www.morning.rpkg.cn.gov.cn.rpkg.cn
http://www.morning.tqxtx.cn.gov.cn.tqxtx.cn
http://www.morning.jrdbq.cn.gov.cn.jrdbq.cn
http://www.morning.mmsf.cn.gov.cn.mmsf.cn
http://www.morning.xqjh.cn.gov.cn.xqjh.cn
http://www.tj-hxxt.cn/news/267331.html

相关文章:

  • 电子商务网站开发的基本原则网站建设销售话术文本格式
  • 网站建设 办公系统做网站怎么在主机上放图片
  • 做国际贸易的网站广州网站建设 .超凡科技
  • 制作营销网站公司营销网站建设的步骤过程
  • 如何制作免费永久网站网络公司排行
  • 如何建立网站会员系统吗中企动力电话
  • 自己做网站发信息网站搭建多少钱
  • 网站注册人查询百度推广登录入口官网网址
  • 网站编辑的工作职能有哪些网站建设 服务器主机配置
  • 网站建设平台皆往乐云践新专家有哪些网站是用vue做的
  • 新手学做网站要学什么知识图文教程动态表情包制作软件app
  • 网站后台管理模板免费下载小程序注册平台
  • 柳州网站建设公司.org做商业网站
  • 怎样把网站推广出去成都抖音推广
  • 学网站开发看什么书wordpress添加微信公众号
  • 网站多种语言是怎么做的自适应网站建设服务哪家好
  • 长沙协会网站设计专业服务东莞 外贸网站建设
  • 万网icp网站备案专题湘潭注册公司
  • 网站seo的重要性wordpress主题更新提醒
  • 网站开发管理制度网站没被收录
  • 个人网站设计规划书已有网站域名 怎么做网站
  • 站长之家appasp.net做报名网站
  • 新建网站怎样绑定域名上贵州省建设厅的网站
  • 对中国建设银行网站的评价佛山做企业网站公司
  • 建网站当老板58同城遵义
  • 国内用不了的网站vs2017 如何做网站
  • 做喜报的网站百度营销大学
  • 做參考資料的网站福州网站制作维护
  • 做网站asp贸易公司
  • 大型网站开发案例百度小说风云榜总榜