当前位置: 首页 > news >正文

头条网站模版汽车租赁网站建设

头条网站模版,汽车租赁网站建设,陶瓷类网站建设,网站建设订单数学原理 多层 RNN 的核心思想是堆叠多个 RNN 层#xff0c;每一层的输出作为下一层的输入#xff0c;从而逐层提取更高层次的抽象特征。 1. 单层 RNN 的数学表示 首先#xff0c;单层 RNN 的计算过程如下。对于一个时间步 t t t#xff0c;单层 RNN 的隐藏状态 h t h_t…数学原理 多层 RNN 的核心思想是堆叠多个 RNN 层每一层的输出作为下一层的输入从而逐层提取更高层次的抽象特征。 1. 单层 RNN 的数学表示 首先单层 RNN 的计算过程如下。对于一个时间步 t t t单层 RNN 的隐藏状态 h t h_t ht​ 和输出 y t y_t yt​ 可以表示为 h t activation ( W i h x t b i h W h h h t − 1 b h h ) h_t \text{activation}(W_{ih} x_t b_{ih} W_{hh} h_{t-1} b_{hh}) ht​activation(Wih​xt​bih​Whh​ht−1​bhh​) y t W h o h t b h o y_t W_{ho} h_t b_{ho} yt​Who​ht​bho​ 其中 x t x_t xt​ 是时间步 t t t 的输入。 h t h_t ht​ 是时间步 t t t 的隐藏状态。 h t − 1 h_{t-1} ht−1​ 是时间步 t − 1 t-1 t−1 的隐藏状态。 W i h W_{ih} Wih​、 W h h W_{hh} Whh​、 W h o W_{ho} Who​ 是权重矩阵。 b i h b_{ih} bih​、 b h h b_{hh} bhh​、 b h o b_{ho} bho​ 是偏置项。 activation \text{activation} activation 是激活函数如 tanh ⁡ \tanh tanh 或 ReLU \text{ReLU} ReLU。 2. 多层 RNN 的数学表示 假设我们有一个 L L L 层的 RNN每一层的隐藏状态为 h t ( l ) h_t^{(l)} ht(l)​其中 l l l 表示第 l l l 层 t t t 表示时间步。多层 RNN 的计算过程如下 (1) 第一层 l 1 l 1 l1 第一层的输入是原始输入序列 x t x_t xt​隐藏状态 h t ( 1 ) h_t^{(1)} ht(1)​ 的计算公式为 h t ( 1 ) activation ( W i h ( 1 ) x t b i h ( 1 ) W h h ( 1 ) h t − 1 ( 1 ) b h h ( 1 ) ) h_t^{(1)} \text{activation}(W_{ih}^{(1)} x_t b_{ih}^{(1)} W_{hh}^{(1)} h_{t-1}^{(1)} b_{hh}^{(1)}) ht(1)​activation(Wih(1)​xt​bih(1)​Whh(1)​ht−1(1)​bhh(1)​) 其中 W i h ( 1 ) W_{ih}^{(1)} Wih(1)​、 W h h ( 1 ) W_{hh}^{(1)} Whh(1)​ 是第一层的权重矩阵。 b i h ( 1 ) b_{ih}^{(1)} bih(1)​、 b h h ( 1 ) b_{hh}^{(1)} bhh(1)​ 是第一层的偏置项。 (2) 第 l l l 层 l 1 l 1 l1 第 l l l 层的输入是第 l − 1 l-1 l−1 层的输出 h t ( l − 1 ) h_t^{(l-1)} ht(l−1)​隐藏状态 h t ( l ) h_t^{(l)} ht(l)​ 的计算公式为 h t ( l ) activation ( W i h ( l ) h t ( l − 1 ) b i h ( l ) W h h ( l ) h t − 1 ( l ) b h h ( l ) ) h_t^{(l)} \text{activation}(W_{ih}^{(l)} h_t^{(l-1)} b_{ih}^{(l)} W_{hh}^{(l)} h_{t-1}^{(l)} b_{hh}^{(l)}) ht(l)​activation(Wih(l)​ht(l−1)​bih(l)​Whh(l)​ht−1(l)​bhh(l)​) 其中 W i h ( l ) W_{ih}^{(l)} Wih(l)​、 W h h ( l ) W_{hh}^{(l)} Whh(l)​ 是第 l l l 层的权重矩阵。 b i h ( l ) b_{ih}^{(l)} bih(l)​、 b h h ( l ) b_{hh}^{(l)} bhh(l)​ 是第 l l l 层的偏置项。 (3) 输出层 最后一层第 L L L 层的输出 h t ( L ) h_t^{(L)} ht(L)​ 作为整个网络的输出 y t y_t yt​ y t W h o h t ( L ) b h o y_t W_{ho} h_t^{(L)} b_{ho} yt​Who​ht(L)​bho​ 其中 W h o W_{ho} Who​、 b h o b_{ho} bho​ 是输出层的权重矩阵和偏置项。 3. 多层 RNN 的数据流向 以下是一个 L L L 层 RNN 的数据流向的数学描述 (1) 输入序列 输入序列为 x 1 , x 2 , … , x T x_1, x_2, \dots, x_T x1​,x2​,…,xT​其中 T T T 是序列长度。 (2) 初始化隐藏状态 每一层的初始隐藏状态 h 0 ( l ) h_0^{(l)} h0(l)​ 通常初始化为零或随机值 h 0 ( l ) 0 或 h 0 ( l ) ∼ N ( 0 , σ 2 ) h_0^{(l)} \mathbf{0} \quad \text{或} \quad h_0^{(l)} \sim \mathcal{N}(0, \sigma^2) h0(l)​0或h0(l)​∼N(0,σ2) (3) 时间步 t t t 的计算 对于每个时间步 t t t从第一层到第 L L L 层依次计算隐藏状态 第一层 h t ( 1 ) activation ( W i h ( 1 ) x t b i h ( 1 ) W h h ( 1 ) h t − 1 ( 1 ) b h h ( 1 ) ) h_t^{(1)} \text{activation}(W_{ih}^{(1)} x_t b_{ih}^{(1)} W_{hh}^{(1)} h_{t-1}^{(1)} b_{hh}^{(1)}) ht(1)​activation(Wih(1)​xt​bih(1)​Whh(1)​ht−1(1)​bhh(1)​) 第 l l l 层 l 1 l 1 l1 h t ( l ) activation ( W i h ( l ) h t ( l − 1 ) b i h ( l ) W h h ( l ) h t − 1 ( l ) b h h ( l ) ) h_t^{(l)} \text{activation}(W_{ih}^{(l)} h_t^{(l-1)} b_{ih}^{(l)} W_{hh}^{(l)} h_{t-1}^{(l)} b_{hh}^{(l)}) ht(l)​activation(Wih(l)​ht(l−1)​bih(l)​Whh(l)​ht−1(l)​bhh(l)​) 输出 y t W h o h t ( L ) b h o y_t W_{ho} h_t^{(L)} b_{ho} yt​Who​ht(L)​bho​ (4) 序列输出 最终整个序列的输出为 y 1 , y 2 , … , y T y_1, y_2, \dots, y_T y1​,y2​,…,yT​。 4. 多层 RNN 的特点 (1) 逐层抽象 每一层 RNN 可以看作是对输入序列的不同层次的抽象。较低层捕捉局部和细节信息较高层捕捉全局和语义信息。 (2) 参数共享 每一层的参数权重矩阵和偏置项在时间步之间共享。不同层的参数是独立的。 (3) 梯度传播 在反向传播时梯度会通过时间步和层数传播。由于梯度消失或爆炸问题训练深层 RNN 可能会比较困难。 可视化原理 下面是一个可视化的结构显示图其中每一层神经元都要有两个方向的输出一个是向本时间步的下一层传送另一个是向下一个时间步的本层传送。而且每一个神经元都有两个权重矩阵。注意下方右图仅仅是逻辑上展开的数据流其中不同世间步上的同一层用的是同一个权重矩阵。 代码实现 1. 示例任务 假设有一个简单的任务 处理一个长度为 4 的序列批次大小为 2每个时间步的输入特征维度为 3希望使用一个 2 层的单向 RNN隐藏状态维度为 5。 2. 输入数据 输入句子 句子 1: “I love PyTorch”句子 2: “RNN is fun” 输入数据的形状 序列长度 (seq_len): 4假设每个单词是一个时间步批次大小 (batch_size): 2输入特征维度 (input_size): 3假设每个单词用一个 3 维向量表示 具体输入数据 import torch# 输入数据形状: (seq_len, batch_size, input_size) input_data torch.tensor([# 时间步 1[[0.1, 0.2, 0.3], # 句子 1 的第一个单词[0.4, 0.5, 0.6]], # 句子 2 的第一个单词# 时间步 2[[0.7, 0.8, 0.9], # 句子 1 的第二个单词[1.0, 1.1, 1.2]], # 句子 2 的第二个单词# 时间步 3[[1.3, 1.4, 1.5], # 句子 1 的第三个单词[1.6, 1.7, 1.8]], # 句子 2 的第三个单词# 时间步 4[[1.9, 2.0, 2.1], # 句子 1 的第四个单词[2.2, 2.3, 2.4]] # 句子 2 的第四个单词 ]) print(Input shape:, input_data.shape) # 输出: torch.Size([4, 2, 3])3. 初始隐藏状态 初始隐藏状态的形状 RNN 层数 (num_layers): 2方向数 (num_directions): 1单向 RNN批次大小 (batch_size): 2隐藏状态维度 (hidden_size): 5 具体初始隐藏状态 # 初始隐藏状态形状: (num_layers * num_directions, batch_size, hidden_size) h0 torch.zeros(2, 2, 5) # 2层RNN批次大小为2隐藏状态维度为5 print(h0 shape:, h0.shape) # 输出: torch.Size([2, 2, 5])4. 定义 RNN 模型 import torch.nn as nn# 定义 RNN rnn nn.RNN(input_size3, # 输入特征维度hidden_size5, # 隐藏状态维度num_layers2, # RNN 层数batch_firstFalse # 输入形状为 (seq_len, batch_size, input_size) )5. 前向传播 计算输出 # 前向传播 output, hn rnn(input_data, h0)print(Output shape:, output.shape) # 输出: torch.Size([4, 2, 5]) print(hn shape:, hn.shape) # 输出: torch.Size([2, 2, 5])输出解析 output: 形状为 (seq_len, batch_size, hidden_size)即 (4, 2, 5)。包含了每个时间步的隐藏状态。例如output[0] 是第一个时间步的隐藏状态output[-1] 是最后一个时间步的隐藏状态。 hn: 形状为 (num_layers, batch_size, hidden_size)即 (2, 2, 5)。包含了最后一个时间步的隐藏状态。例如hn[0] 是第一层的最终隐藏状态hn[1] 是第二层的最终隐藏状态。 6. 具体输出值 output 的值 print(Output (所有时间步的隐藏状态):) print(output)输出示例 tensor([[[ 0.1234, 0.5678, 0.9101, 0.1121, 0.3141],[ 0.4151, 0.6171, 0.8191, 0.0212, 0.2232]],[[ 0.4252, 0.6272, 0.8292, 0.0313, 0.2333],[ 0.4353, 0.6373, 0.8393, 0.0414, 0.2434]],[[ 0.4454, 0.6474, 0.8494, 0.0515, 0.2535],[ 0.4555, 0.6575, 0.8595, 0.0616, 0.2636]],[[ 0.4656, 0.6676, 0.8696, 0.0717, 0.2737],[ 0.4757, 0.6777, 0.8797, 0.0818, 0.2838]]],grad_fnStackBackward)hn 的值 print(hn (最后一个时间步的隐藏状态):) print(hn)输出示例 tensor([[[ 0.4656, 0.6676, 0.8696, 0.0717, 0.2737],[ 0.4757, 0.6777, 0.8797, 0.0818, 0.2838]],[[ 0.4858, 0.6878, 0.8898, 0.0919, 0.2939],[ 0.4959, 0.6979, 0.8999, 0.1020, 0.3040]]],grad_fnStackBackward)batch_firstTrue时 以下是一个具体的例子展示当 batch_firstTrue 时PyTorch 中 torch.nn.RNN 的输入、输出以及参数的作用。 任务 假设有一个简单的任务 处理一个长度为 4 的序列批次大小为 2每个时间步的输入特征维度为 3希望使用一个 2 层的单向 RNN隐藏状态维度为 5并且设置 batch_firstTrue。 2. 输入数据 输入句子 句子 1: “I love PyTorch”句子 2: “RNN is fun” 输入数据的形状 批次大小 (batch_size): 2序列长度 (seq_len): 4假设每个单词是一个时间步输入特征维度 (input_size): 3假设每个单词用一个 3 维向量表示 具体输入数据 import torch# 输入数据形状: (batch_size, seq_len, input_size) input_data torch.tensor([# 句子 1[[0.1, 0.2, 0.3], # 第一个单词[0.7, 0.8, 0.9], # 第二个单词[1.3, 1.4, 1.5], # 第三个单词[1.9, 2.0, 2.1]], # 第四个单词# 句子 2[[0.4, 0.5, 0.6], # 第一个单词[1.0, 1.1, 1.2], # 第二个单词[1.6, 1.7, 1.8], # 第三个单词[2.2, 2.3, 2.4]] # 第四个单词 ]) print(Input shape:, input_data.shape) # 输出: torch.Size([2, 4, 3])3. 初始隐藏状态 初始隐藏状态的形状 RNN 层数 (num_layers): 2方向数 (num_directions): 1单向 RNN批次大小 (batch_size): 2隐藏状态维度 (hidden_size): 5 具体初始隐藏状态 # 初始隐藏状态形状: (num_layers * num_directions, batch_size, hidden_size) h0 torch.zeros(2, 2, 5) # 2层RNN批次大小为2隐藏状态维度为5 print(h0 shape:, h0.shape) # 输出: torch.Size([2, 2, 5])4. 定义 RNN 模型 import torch.nn as nn# 定义 RNN rnn nn.RNN(input_size3, # 输入特征维度hidden_size5, # 隐藏状态维度num_layers2, # RNN 层数batch_firstTrue # 输入形状为 (batch_size, seq_len, input_size) )5. 前向传播 计算输出 # 前向传播 output, hn rnn(input_data, h0)print(Output shape:, output.shape) # 输出: torch.Size([2, 4, 5]) print(hn shape:, hn.shape) # 输出: torch.Size([2, 2, 5])输出解析 output: 形状为 (batch_size, seq_len, hidden_size)即 (2, 4, 5)。包含了每个时间步的隐藏状态。例如output[0] 是第一个句子的所有时间步的隐藏状态output[1] 是第二个句子的所有时间步的隐藏状态。 hn: 形状为 (num_layers, batch_size, hidden_size)即 (2, 2, 5)。包含了最后一个时间步的隐藏状态。例如hn[0] 是第一层的最终隐藏状态hn[1] 是第二层的最终隐藏状态。 6. 具体输出值 output 的值 print(Output (所有时间步的隐藏状态):) print(output)输出示例 tensor([[[ 0.1234, 0.5678, 0.9101, 0.1121, 0.3141],[ 0.4252, 0.6272, 0.8292, 0.0313, 0.2333],[ 0.4454, 0.6474, 0.8494, 0.0515, 0.2535],[ 0.4656, 0.6676, 0.8696, 0.0717, 0.2737]],[[ 0.4151, 0.6171, 0.8191, 0.0212, 0.2232],[ 0.4353, 0.6373, 0.8393, 0.0414, 0.2434],[ 0.4555, 0.6575, 0.8595, 0.0616, 0.2636],[ 0.4757, 0.6777, 0.8797, 0.0818, 0.2838]]],grad_fnTransposeBackward0)hn 的值 print(hn (最后一个时间步的隐藏状态):) print(hn)输出示例 tensor([[[ 0.4656, 0.6676, 0.8696, 0.0717, 0.2737],[ 0.4757, 0.6777, 0.8797, 0.0818, 0.2838]],[[ 0.4858, 0.6878, 0.8898, 0.0919, 0.2939],[ 0.4959, 0.6979, 0.8999, 0.1020, 0.3040]]],grad_fnStackBackward)
文章转载自:
http://www.morning.fbylq.cn.gov.cn.fbylq.cn
http://www.morning.tllhz.cn.gov.cn.tllhz.cn
http://www.morning.gnghp.cn.gov.cn.gnghp.cn
http://www.morning.trzzm.cn.gov.cn.trzzm.cn
http://www.morning.xnkh.cn.gov.cn.xnkh.cn
http://www.morning.ybgyz.cn.gov.cn.ybgyz.cn
http://www.morning.mkfr.cn.gov.cn.mkfr.cn
http://www.morning.xyjlh.cn.gov.cn.xyjlh.cn
http://www.morning.ltbwq.cn.gov.cn.ltbwq.cn
http://www.morning.bfsqz.cn.gov.cn.bfsqz.cn
http://www.morning.xrqkm.cn.gov.cn.xrqkm.cn
http://www.morning.xwgbr.cn.gov.cn.xwgbr.cn
http://www.morning.fksyq.cn.gov.cn.fksyq.cn
http://www.morning.nqbcj.cn.gov.cn.nqbcj.cn
http://www.morning.rqkzh.cn.gov.cn.rqkzh.cn
http://www.morning.xqkcs.cn.gov.cn.xqkcs.cn
http://www.morning.bsrp.cn.gov.cn.bsrp.cn
http://www.morning.wyrsn.cn.gov.cn.wyrsn.cn
http://www.morning.zwpzy.cn.gov.cn.zwpzy.cn
http://www.morning.jhrqn.cn.gov.cn.jhrqn.cn
http://www.morning.ychrn.cn.gov.cn.ychrn.cn
http://www.morning.kkhf.cn.gov.cn.kkhf.cn
http://www.morning.rmmz.cn.gov.cn.rmmz.cn
http://www.morning.pfggj.cn.gov.cn.pfggj.cn
http://www.morning.tjkth.cn.gov.cn.tjkth.cn
http://www.morning.cgtfl.cn.gov.cn.cgtfl.cn
http://www.morning.dskzr.cn.gov.cn.dskzr.cn
http://www.morning.wlstn.cn.gov.cn.wlstn.cn
http://www.morning.wqpsf.cn.gov.cn.wqpsf.cn
http://www.morning.tyjnr.cn.gov.cn.tyjnr.cn
http://www.morning.bfybb.cn.gov.cn.bfybb.cn
http://www.morning.swkzk.cn.gov.cn.swkzk.cn
http://www.morning.ntkpc.cn.gov.cn.ntkpc.cn
http://www.morning.glbnc.cn.gov.cn.glbnc.cn
http://www.morning.gwsll.cn.gov.cn.gwsll.cn
http://www.morning.tfzjl.cn.gov.cn.tfzjl.cn
http://www.morning.grjh.cn.gov.cn.grjh.cn
http://www.morning.mglqf.cn.gov.cn.mglqf.cn
http://www.morning.wpsfc.cn.gov.cn.wpsfc.cn
http://www.morning.ckctj.cn.gov.cn.ckctj.cn
http://www.morning.zpyh.cn.gov.cn.zpyh.cn
http://www.morning.rgmd.cn.gov.cn.rgmd.cn
http://www.morning.fqklt.cn.gov.cn.fqklt.cn
http://www.morning.mtrrf.cn.gov.cn.mtrrf.cn
http://www.morning.nbsfb.cn.gov.cn.nbsfb.cn
http://www.morning.jlnlr.cn.gov.cn.jlnlr.cn
http://www.morning.tsycr.cn.gov.cn.tsycr.cn
http://www.morning.dmthy.cn.gov.cn.dmthy.cn
http://www.morning.qqbw.cn.gov.cn.qqbw.cn
http://www.morning.hwlmy.cn.gov.cn.hwlmy.cn
http://www.morning.hcsnk.cn.gov.cn.hcsnk.cn
http://www.morning.nmbbt.cn.gov.cn.nmbbt.cn
http://www.morning.mrxgm.cn.gov.cn.mrxgm.cn
http://www.morning.qyfrd.cn.gov.cn.qyfrd.cn
http://www.morning.yaqi6.com.gov.cn.yaqi6.com
http://www.morning.lxfqc.cn.gov.cn.lxfqc.cn
http://www.morning.ntwxt.cn.gov.cn.ntwxt.cn
http://www.morning.npfrj.cn.gov.cn.npfrj.cn
http://www.morning.qwzpd.cn.gov.cn.qwzpd.cn
http://www.morning.bgygx.cn.gov.cn.bgygx.cn
http://www.morning.lpcpb.cn.gov.cn.lpcpb.cn
http://www.morning.ldzss.cn.gov.cn.ldzss.cn
http://www.morning.kdxzy.cn.gov.cn.kdxzy.cn
http://www.morning.lqtwb.cn.gov.cn.lqtwb.cn
http://www.morning.mkbc.cn.gov.cn.mkbc.cn
http://www.morning.xdmsq.cn.gov.cn.xdmsq.cn
http://www.morning.fwjfh.cn.gov.cn.fwjfh.cn
http://www.morning.ndhxn.cn.gov.cn.ndhxn.cn
http://www.morning.nrgdc.cn.gov.cn.nrgdc.cn
http://www.morning.tktyh.cn.gov.cn.tktyh.cn
http://www.morning.lwwnq.cn.gov.cn.lwwnq.cn
http://www.morning.fwkpp.cn.gov.cn.fwkpp.cn
http://www.morning.yongkangyiyuan-pfk.com.gov.cn.yongkangyiyuan-pfk.com
http://www.morning.jxtbr.cn.gov.cn.jxtbr.cn
http://www.morning.hphfy.cn.gov.cn.hphfy.cn
http://www.morning.xxwhz.cn.gov.cn.xxwhz.cn
http://www.morning.rjljb.cn.gov.cn.rjljb.cn
http://www.morning.zxfdq.cn.gov.cn.zxfdq.cn
http://www.morning.ryxyz.cn.gov.cn.ryxyz.cn
http://www.morning.kfyjh.cn.gov.cn.kfyjh.cn
http://www.tj-hxxt.cn/news/235267.html

相关文章:

  • 建网站商城在哪做伊春市建设局网站
  • 慈溪建设局网站环保工程 技术支持 东莞网站建设
  • 做网站的公司济南赛博科技市场全网视频合集网站建设
  • 郑州品牌网站建设运动网站建设教程
  • 网站 备案 哪个省福建省建设环卫协会网站
  • 做网站图片自动切换全球网站建设服务商
  • 网赌网站建设多少钱自己有域名服务器怎样建设网站
  • 在那里能找到网站seo是什么缩写
  • 安庆城乡建设局网站成都高端品牌网站建设
  • 网站制作方案答案是螃蟹的迷语photoshop在线工具
  • 毕业设计做网站的步骤家庭电脑可以做网站吗
  • 江干区住房和城乡建设局网站linux系统如何做网站
  • 适合大学生做兼职的网站有哪些学做粤菜的网站
  • 重庆网站服务器建设推荐cms建站详细教程
  • 做网站的行业平台建设银行杭州纪念币预约网站
  • 用软件建网站大学网站开发与管理课程心得体会
  • 经营阅读网站需要怎么做手机与pc网站同步模板
  • 网站主题模板wordpress样式丢失
  • 作风建设年 网站12306 网站开发
  • 好看的美食怎么做视频网站中文wordpress网站
  • 网站logo的作用做企业网站都需要注意哪点
  • 做网站的感觉贵阳网站建设网站制作
  • 宁波模板建站定制网站电商门户网站建设方案
  • 网站规划详细设计怎么写网站访客分析
  • 网站备案贵州电话华创网站建设
  • 正在运营的网站被注销备案怎么办wordpress阿里云cdn
  • 关于静态网站开发相关新闻网站如何快速被
  • 广西一站网网络技术集团有限公司wordpress添加好友
  • 做手机网站的好处兰州哪家网站做推广效果好
  • mifa网站开发费用站嗨建站