当前位置: 首页 > news >正文

工业企业网络推广seo关键词优化经验技巧

工业企业网络推广,seo关键词优化经验技巧,老五wordpress,无锡网站建设原则目录 前言1. 简介2. 神经网络中的链式法则3. 微积分的计算4. 公式含义5. 代价函数对权重偏置的敏感度6. 多个神经元的情形7. 回顾相关资料结语 前言 3Blue1Brown 视频笔记,仅供自己参考 这个章节主要来深度讲解反向传播中的一些微积分理论 官网:https://…

目录

    • 前言
    • 1. 简介
    • 2. 神经网络中的链式法则
    • 3. 微积分的计算
    • 4. 公式含义
    • 5. 代价函数对权重偏置的敏感度
    • 6. 多个神经元的情形
    • 7. 回顾
    • 相关资料
    • 结语

前言

3Blue1Brown 视频笔记,仅供自己参考

这个章节主要来深度讲解反向传播中的一些微积分理论

官网:https://www.3blue1brown.com

视频:https://www.bilibili.com/video/BV16x411V7Qg

1. 简介

在这里插入图片描述

这章开始我们就假设你已经看过第三章了,上章让大家直观上感受了反向传播算法的原理

在这里插入图片描述

在这章里,我们会更深入讲解一些其中的微积分理论,这个看不太懂很正常,所以我们的六字格言 “停一停想一想” 在这依旧管用,这章我们的目标是给大家展示在机器学习中,我们一般是怎么理解链式法则的,这点跟别的基础微积分课讲得会有点不一样

在这里插入图片描述

对于微积分不够熟悉的观众,我之前已经做了一整个系列了,大家感兴趣的可以看看:Calculus

2. 神经网络中的链式法则

在这里插入图片描述

我们从最最简单的网络讲起吧,每层只有一个神经元

在这里插入图片描述

图上这个网络就是由 3 个权重和 3 个偏置决定的,我们的目标是理解代价函数对于这些变量有多敏感,这样我们就知道怎么调整这些变量才可以使得代价降低得最快,

在这里插入图片描述

我们先来关注最后两个神经元吧,我给最后一个神经元的激活值一个上标 L,表示它处于第 L 层,那么,前一个神经元的激活值就是 a ( L − 1 ) a^{(L-1)} a(L1),这里的上标不是指数,而是用来标记我们正在讨论哪一层,过一会我会用到下标来表示别的意思

在这里插入图片描述

给定一个训练样本,我们把这个最终层激活值要接近的目标叫做 y,例如 y 可能是 0 或者 1,那么这个简易网络对于单个训练样本的代价就等于 ( a ( L ) − y ) 2 \color{black}(a^{(L)}-\color{gold}y\color{black})^2 (a(L)y)2,对于这个样本,我们把这个代价值标记为 C 0 \color{red}C_0 C0

在这里插入图片描述

还记得吗,最终层的激活值是这么算出来的,即一个权重 w L \color{blue}w^L wL 乘上前一个神经元的激活值再加上一个偏置 b L \color{pink}b^L bL,最后把加权和塞进一个特定的非线性函数,例如 sigmoid 或者 ReLU 之类的,给这个加权和起一个名字会方便很多,就叫它 z L \color{green}z^L zL 好了,跟对应的激活值用同一个上标

在这里插入图片描述

这里的项挺多,概括起来我们拿权重 w L \color{blue}w^L wL、前一个激活值 a ( L − 1 ) a^{(L-1)} a(L1) 以及偏置值 b L \color{pink}b^L bL 一起来算出 z L \color{green}z^L zL 再算出 a ( L ) a^{(L)} a(L),最后再用上常量 y \color{gold}y y 算出代价值 C 0 \color{red}C_0 C0,当然 a ( L − 1 ) a^{(L-1)} a(L1) 也是由它自己的权重和偏置决定的,以此类推,但我们现在重点不在那里

在这里插入图片描述

上面这些东西都是数字,没错吧,我们可以想象每个数字都对应一个数轴,我们第一个目标是理解代价函数对权重 w L \color{blue}w^L wL 的微小变化有多敏感,或者换句话讲求 C 0 \color{red}C_0 C0 w L \color{blue}w^L wL 的导数

在这里插入图片描述

当你看到 ∂ w \color{blue}\partial w w 之类的项时,请把它当做这是对 w \color{blue}w w 的微小扰动,好比改变 0.01,然后把 ∂ C 0 \color{red}\partial C_0 C0 当做 “改变 w \color{blue}w w C 0 \color{red}C_0 C0 的值造成的变化”,我们求得是这两个数的比值

在这里插入图片描述

概念上说 w L \color{blue}w^L wL 的微小变化会导致 z L \color{green}z^L zL 产生些变化,然后会导致 a L a^L aL 产生变化,最终影响到代价值

在这里插入图片描述

那么,我们把式子拆开,首先求 z L \color{green}z^L zL 的变化量比上 w L \color{blue}w^L wL 的变化量,也就是求 z L \color{green}z^L zL 关于 w L \color{blue}w^L wL 的导数,同理考虑 a L a^L aL 的变化量比上因变量 z L \color{green}z^L zL 的变化量,以及最终的 C 0 \color{red}C_0 C0 的变化量比上直接改动 a L a^L aL 产生的变化量

在这里插入图片描述

这不就是链式法则么,把三个比值相乘就可以算出 C 0 \color{red}C_0 C0 w L \color{blue}w^L wL 的微小变化有多敏感

3. 微积分的计算

在这里插入图片描述

现在图上多了一大堆符号,稍微花点时间理解一下每个符号都是什么意思吧,因为马上我们就要对各个部分求导了

在这里插入图片描述

C 0 \color{red}C_0 C0 关于 a L a^L aL 的导数就是 2 ( a ( L ) − y ) \color{black}2(a^{(L)}-\color{gold}y\color{black}) 2(a(L)y),这也就意味着导数的大小跟网络最终的输出减目标结果的差成正比,如果网络的输出差别很大,即使 w \color{blue}w w 稍稍变一点代价也会改变非常大

在这里插入图片描述

a L a^L aL z L \color{green}z^L zL 求导就是求 sigmoid 的导数,或就你选择的非线性激活函数求导

在这里插入图片描述

z L \color{green}z^L zL w L \color{blue}w^L wL 求导结果就是 a L − 1 a^{L-1} aL1

4. 公式含义

在这里插入图片描述

对我自己来说,这里如果不退一步好好想想这些公式的含义,很容易卡住

在这里插入图片描述

就最后这个导数来说,这个权重的改变量 ∂ w \color{blue}\partial w w 对最后一层的影响有多大取决于之前一层的神经元,所谓的 “一同激活的神经元关联在一起” 的出处即来源于此

在这里插入图片描述

不过这只是包含一个训练样本的代价对 w ( L ) \color{blue}w^{(L)} w(L) 的导数,由于总的代价函数是许许多多训练样本所有代价的总平均,它对 w ( L ) \color{blue}w^{(L)} w(L) 的导数就需要求 ∂ C ∂ w ( L ) \frac{\color{red}\partial C}{\color{blue}\partial w^ {(L)}} w(L)C 这个表达式之于每一个训练样本的平均

在这里插入图片描述

当然这只是梯度向量 ∇ C \color{red}\nabla C C 的一个分量,而梯度向量 ∇ C \color{red}\nabla C C 本身则由代价函数对每一个权重和每一个偏置求偏导构成的

5. 代价函数对权重偏置的敏感度

在这里插入图片描述

在这里插入图片描述

值得注意的是,求出这些偏导中的一个就完成了一大半的工作量,对偏置的求导步骤也就基本相同,只要把 ∂ z ∂ w \frac{\color{green}\partial z}{\color{blue} \partial w} wz 替换成 ∂ z ∂ b \frac{\color{green}\partial z}{\color{pink} \partial b} bz,对应的公式中可以看出导数 ∂ z ∂ b \frac{\color{green}\partial z}{\color{pink} \partial b} bz 等于 1

在这里插入图片描述

这里也涉及到了反向传播的概念,我们来看下这个代价函数对上一层激活值的敏感度,展开来说,链式法则的第一项 z \color{green}z z 对上一层激活值的敏感度就是权重 w ( L ) \color{blue}w^{(L)} w(L)

在这里插入图片描述

虽然说过我们不能直接改变激活值,但我们很有必要关注这个值,因为我们可以反向应用链式法则来计算代价函数对之前的权重偏置的敏感度

6. 多个神经元的情形

在这里插入图片描述

你可能觉得这个例子举得太简单了,毕竟每层只有一个神经元,而真实的神经网络会比这个例子复杂百倍,然而说真的,每层多加若干个神经元并不会复杂很多,真的,只不过多写一些下标罢了

在这里插入图片描述

我们用加上下标的神经元来表示 L 层的若干神经元,而不是用 a ( L ) a^{(L)} a(L) 统称 L 层的激活值,现在用 k 来标注 L-1 层的神经元,j 则是 L 层的神经元

在这里插入图片描述

现在要求代价函数,我们从期望的输出着手,计算上一层激活值和期望输出的差值的平方然后求和,即求 ( a j ( L ) − y j ) 2 \color{black}(a_j^{(L)}-\color{gold}y_j\color{black})^2 (aj(L)yj)2 的和

在这里插入图片描述

由于权重的数量多了不少,那么每个权重要多用几个下标,我们记连接第 k 个神经元和第 j 个神经元的连线为 w j k ( L ) \color{blue}w_{jk}^{(L)} wjk(L),这些下标感觉像标反了,可能有点别扭,不过和第一章中的权重矩阵的下标是一致的

在这里插入图片描述

同样的,把加权和记为 z 总是很方便,那么最后一层的激活值依然等于指定的函数(如 sigmoid)在 z 处的函数值

在这里插入图片描述

在这里插入图片描述

你懂我意思吧,现在的方程式和之前每层只有一个神经元的时候本质是一样的,只是看着复杂一些

在这里插入图片描述

链式法则形式的导数表达式所描述的代价对某个权重的敏感度也是一样的,这里大家可以暂停推导一下每一项的含义,唯一改变的是代价对 L-1 层激活值的导数

在这里插入图片描述

此时,激活值可以通过不同的途径影响代价函数,也就是说,神经元一边通过 a 0 ( L ) a_0^{(L)} a0(L) 来影响代价函数,另一边通过 a 1 ( L ) a_1^{(L)} a1(L) 来影响代价函数,得把这些都加起来,然后…就搞定了

在这里插入图片描述

只要计算出倒数第二层代价函数对激活值的敏感度,接下来只要重复上述过程,计算喂给倒数第二层的权重和偏置就好了

7. 回顾

现在长吁一口气吧!如果上面这些明白了,那你就看明白了神经网络的主力—反向传播

在这里插入图片描述

链式法则表达式给出了决定梯度每个分量的偏导,使得我们能不断下探,最小化神经网络的代价

在这里插入图片描述

静下来想一想你会发现这些复杂的层层叠叠很烧脑,消化这些知识需要花一些时间,这很正常

相关资料

  • http://neuralnetworksanddeeplearning.com/chap2.html
  • https://github.com/mnielsen/neural-networks-and-deep-learning
  • https://colah.github.io/posts/2015-08-Backprop/

结语

这个章节我们主要学习了反向传播以微积分的形式表达,其核心就是链式法则

OK,以上就是本章的全部内容了,下章我们来讲 Transformer,敬请期待😄


文章转载自:
http://canonicals.hfstrb.cn
http://albuquerque.hfstrb.cn
http://allocution.hfstrb.cn
http://bugler.hfstrb.cn
http://biforked.hfstrb.cn
http://biface.hfstrb.cn
http://celestine.hfstrb.cn
http://acrobatism.hfstrb.cn
http://bust.hfstrb.cn
http://ally.hfstrb.cn
http://biennialy.hfstrb.cn
http://aftertax.hfstrb.cn
http://captainless.hfstrb.cn
http://cantilena.hfstrb.cn
http://arsenal.hfstrb.cn
http://antifoulant.hfstrb.cn
http://budo.hfstrb.cn
http://anthroposcopy.hfstrb.cn
http://bevatron.hfstrb.cn
http://bloodmobile.hfstrb.cn
http://barbacue.hfstrb.cn
http://boatrace.hfstrb.cn
http://aardvark.hfstrb.cn
http://alexandria.hfstrb.cn
http://brilliant.hfstrb.cn
http://bolshy.hfstrb.cn
http://balopticon.hfstrb.cn
http://balikpapan.hfstrb.cn
http://apophthegm.hfstrb.cn
http://adamantine.hfstrb.cn
http://caliduct.hfstrb.cn
http://bunraku.hfstrb.cn
http://adjunct.hfstrb.cn
http://annotator.hfstrb.cn
http://bibiolatrist.hfstrb.cn
http://cadastral.hfstrb.cn
http://beautydom.hfstrb.cn
http://catchcry.hfstrb.cn
http://aretine.hfstrb.cn
http://brekkie.hfstrb.cn
http://cheliceral.hfstrb.cn
http://analcite.hfstrb.cn
http://believable.hfstrb.cn
http://bardic.hfstrb.cn
http://blues.hfstrb.cn
http://carbonise.hfstrb.cn
http://apiary.hfstrb.cn
http://bondsman.hfstrb.cn
http://assonate.hfstrb.cn
http://badness.hfstrb.cn
http://alodium.hfstrb.cn
http://adiaphorist.hfstrb.cn
http://bistoury.hfstrb.cn
http://calendry.hfstrb.cn
http://airscape.hfstrb.cn
http://bariatrics.hfstrb.cn
http://buckshot.hfstrb.cn
http://aga.hfstrb.cn
http://bigoted.hfstrb.cn
http://capriciously.hfstrb.cn
http://aftersound.hfstrb.cn
http://ahl.hfstrb.cn
http://admiralship.hfstrb.cn
http://affably.hfstrb.cn
http://acropathy.hfstrb.cn
http://adopter.hfstrb.cn
http://aerugo.hfstrb.cn
http://angiology.hfstrb.cn
http://aeroflot.hfstrb.cn
http://arkhangelsk.hfstrb.cn
http://alkanet.hfstrb.cn
http://bicron.hfstrb.cn
http://chapeau.hfstrb.cn
http://atomicity.hfstrb.cn
http://back.hfstrb.cn
http://aerenchyma.hfstrb.cn
http://avidity.hfstrb.cn
http://antimeric.hfstrb.cn
http://annates.hfstrb.cn
http://bromic.hfstrb.cn
http://algae.hfstrb.cn
http://brickdust.hfstrb.cn
http://charterer.hfstrb.cn
http://blastomere.hfstrb.cn
http://austronesian.hfstrb.cn
http://beamingly.hfstrb.cn
http://axonometric.hfstrb.cn
http://chickabiddy.hfstrb.cn
http://charterer.hfstrb.cn
http://analogous.hfstrb.cn
http://anhematopoiesis.hfstrb.cn
http://barkhan.hfstrb.cn
http://aeromarine.hfstrb.cn
http://blame.hfstrb.cn
http://acerbic.hfstrb.cn
http://arch.hfstrb.cn
http://braunite.hfstrb.cn
http://airmobile.hfstrb.cn
http://abuliding.hfstrb.cn
http://boxhaul.hfstrb.cn
http://www.tj-hxxt.cn/news/36465.html

相关文章:

  • 中英文 微信网站 怎么做怎么推广自己的网站
  • 铁岭手机网站建设b2b平台运营模式
  • 小型网站建设seo网址优化靠谱
  • 网站名字怎么取最好湖南知名网络推广公司
  • adobeXD做网站推广app赚钱的平台
  • 软文推广教程seo主要是指优化
  • 惠州外包网站建设站长统计app软件下载官网
  • 网站带做收录排名谷歌搜索引擎入口2023
  • 上海公司注册名字查询百度ocpc如何优化
  • 做网站有什么好的推荐什么是广告营销
  • vk社交网站做婚介优化师
  • wordpress面包屑seo外推软件
  • 一般设计网站页面用什么软件做百度正式员工工资待遇
  • 前端做数据表格的网站搜索引擎的营销方法有哪些
  • 微信网站制作入门汕头seo推广优化
  • 长沙营销网站建设公司沈阳百度推广优化
  • 发票 网站建设 单位经典模板网站建设
  • 珠海网站建设网络公司怎么样seol英文啥意思
  • 南宁网站设计多少钱seo优化软件有哪些
  • 在线生成网站地图b2b电商平台有哪些
  • 做电影网站用的云盘模板建站难吗
  • 山西网站建设2020站群seo系统
  • wordpress调用当前tag标签的热门文章北京网络seo经理
  • 设计网站官网国外一个新产品的营销方案
  • 北京网站设计培训学校长沙网站托管seo优化公司
  • 河北建设厅官方网站怎么快速优化网站排名
  • wordpress网站外包百度allin 人工智能
  • 嘉兴网站开发选哪家苏州网站建设费用
  • 有口碑的网站建设seo推广策略
  • 黑客网站入口抖音搜索优化