当前位置: 首页 > news >正文

网站建设英文翻译WordPress用户聊天功能

网站建设英文翻译,WordPress用户聊天功能,企业网站流量怎么做,网站建设接口开发写在前面#xff1a; 首先感谢兄弟们的关注和订阅#xff0c;让我有创作的动力#xff0c;在创作过程我会尽最大能力#xff0c;保证作品的质量#xff0c;如果有问题#xff0c;可以私信我#xff0c;让我们携手共进#xff0c;共创辉煌。 在https://blog.csdn.net/A…写在前面 首先感谢兄弟们的关注和订阅让我有创作的动力在创作过程我会尽最大能力保证作品的质量如果有问题可以私信我让我们携手共进共创辉煌。 在https://blog.csdn.net/AugustMe/article/details/128969138文章中我们使用了基于PyTorch搭建LSTM实现MNIST手写数字体识别LSTM是单向的现在我们使用双向LSTM试一试效果和之前的单向LSTM模型稍微有差别请注意查看代码的变化。 1.导入依赖库 这些依赖库是必须导入的用于后续代码的构建 import torch from torch import nn, optim from torch.autograd import Variable from torchvision import datasets, transforms from torch.utils.data import DataLoader import matplotlib.pyplot as plt from PIL import Image import numpy as np依赖库的版本信息 torch: 1.8.0cpu numpy: 1.19.3 matplotlib: 3.2.1 pillow: 7.2.0 2.数据集 训练模型肯定少不了数据集本教程使用我们以比较熟悉的 mnist 数据集该数据集是手写数字数据集每一张图片得大小为28×28训练集60000张测试集10000张mnist数据集下载代码如下 # 训练集 train_data datasets.MNIST(root./, # 存放位置train True, # 载入训练集transformtransforms.ToTensor(), # 把数据变成tensor类型download True # 下载) # 测试集 test_data datasets.MNIST(root./,train False,transformtransforms.ToTensor(),download True)这个mnist下载成功与否还和你的网络有关系有时候网络不好可能会导致下载失败。如果你下载不下来可以联系我我将数据集打包发给你。 下载得到的数据集存放如下 3.数据导入 数据下载成功后加载下载得到的数据集核心代码如下 # 批次大小 batch_size 32 # 装载训练集 train_loader DataLoader(datasettrain_data, batch_sizebatch_size, shuffleTrue) # 装载测试集 test_loader DataLoader(datasettest_data, batch_sizebatch_size, shuffleFalse)我们查看一下数据集中的图片核心代码为 # batch_size设为 1 时查看 for i, data in enumerate(train_loader):inputs, labels dataprint(inputs.shape)print(labels.shape)img inputs.view((28,28))print(img.shape)# plt.imshow(img)plt.imshow(img, cmapgray)breakplt.imshow(img, cmap‘gray’) plt.imshow(img) 4.双向LSTM网络 Long Short-Term Memory (LSTM) 是一种特殊的循环神经网络它能够处理较长的序列并且能够记忆长期的依赖关系。LSTM 的结构包括输入门、输出门、遗忘门和记忆细胞它们共同组成了一个“门控循环单元”可以控制信息的流动从而实现长期依赖关系的学习。LSTM 在自然语言处理、语音识别、机器翻译等领域有着广泛的应用。 基于pytorch深度学习框架搭建LSTM网络模型使用了双向LSTM一层 这里面模型和之前的文章稍有不同注意 output,(h_n,c_n)三个值的输出。 # 定义网络结构 class LSTM(nn.Module):def __init__(self):super(LSTM,self).__init__() # 初始化self.lstm nn.LSTM(input_size 28, # 表示输入特征的大小hidden_size 64, # 隐藏层的特征维度num_layers 1, # 表示lstm隐藏层的层数batch_first True, # lstm默认格式inputseq_len,batch,feature# 等于True表示input和output变成batchseq_lenfeaturebidirectional True # True则为双向lstm默认为False)self.out torch.nn.Linear(in_features64*2, out_features10)self.softmax torch.nn.Softmax(dim1) # 映射到0-1之间def forward(self,x):# (batch, seq_len, feature)x x.view(-1, 28, 28)# output:(batch,seq_len,hidden_size)包含每个序列的输出结果# 虽然lstm的batch_first为True但是h_n,c_n的第0个维度还是num_layers# h_n :[num_layers,batch,hidden_size]只包含最后一个序列的输出结果# c_n:[num_layers,batch,hidden_size]只包含最后一个序列的输出结果output,(h_n,c_n) self.lstm(x) # x输入到lstmoutput_in_last_timestep output[:,-1,:] # 获取下一个输入x self.out(output_in_last_timestep) # 输入到outx self.softmax(x) # 输入到softmaxreturn x特别说明 LSTM中存在维度的变化一定要注意下面以实例进行讲解请看下面的代码和注释。 h_n包含的是句子的最后一个单词的隐藏状态c_n包含的是句子的最后一个单词的细胞状态所以它们都与句子的长度seq_length无关。output[:,-1,:]与h_n是相等的因为output[-1]包含的正是batch_size个句子中每一个句子的最后一个单词的隐藏状态注意LSTM中的隐藏状态其实就是输出cell state细胞状态才是LSTM中一直隐藏的记录着信息output与h_n的关系。 实验代码仅供参考 # -*- coding: utf-8 -*-Created on Fri Feb 10 15:25:40 2023author: augustqi维度变化 https://blog.csdn.net/qq_54867493/article/details/128790652 import torch import torch.nn as nninput_x torch.randn(1, 28, 28) print(input_x.shape)input_x_ input_x.view(-1, 28, 28) print(input_x_.shape)lstm nn.LSTM(input_size 28, # 输入数据的特征维数通常就是embedding_dim(词向量的维度)hidden_size 64, # 隐藏层的特征维度num_layers 1, # 表示lstm循环神经网络的层数batch_first True, # lstm默认格式inputseq_len,batch,feature# 等于True表示input和output变成batchseq_lenfeaturebidirectional True # True则为双向lstm默认为False)linear torch.nn.Linear(in_features64*2, out_features10)softmax torch.nn.Softmax(dim1)output, (h_n, c_n) lstm(input_x_) output的维度(batch, seq_len, num_directions*hidden_size) hn的维度(num_directions*num_layer, batch_size, hidden_size) cn的维度同hn print(output) # 如果bidirectionalTrue, num_directions2; 如果bidirectionalFalse, num_directions1 print(output.shape) # [seq_length, batch_size, num_directions * hidden_size]print(output[:,-1,:]) print(output[:,-1,:].shape)print(h_n) print(h_n.shape) # [num_directions * num_layers, batch, hidden_size]print(c_n) print(c_n.shape) # c_n.shape h_n.shapeprint(h_n[-1,:,:]) print(h_n[-1,:,:].shape) linear_out linear(h_n[-1,:,:])softmax_out softmax(linear_out)linear_out_2 linear(output[:,-1,:]) softmax_out_2 softmax(linear_out_2) h_n包含的是句子的最后一个单词的隐藏状态c_n包含的是句子的最后一个单词的细胞状态 所以它们都与句子的长度seq_length无关。 output[:,-1,:]与h_n是相等的因为output[-1]包含的正是batch_size个句子中每一个句子的最后一个单词的隐藏状态 注意LSTM中的隐藏状态其实就是输出cell state细胞状态才是LSTM中一直隐藏的记录着信息output与h_n的关系。5.模型训练 训练代码如下主要包括定义模型、定义损失函数、定义优化器训练时的超参数详情如下 # 定义模型 model LSTM() # 定义代价函数 mse_loss nn.CrossEntropyLoss() # 交叉熵 # 定义优化器 optimizer optim.Adam(model.parameters(),lr0.001) # AdamEpoch 30 loss_train_list [] loss_test_list [] # 训练 for epoch in range(Epoch):# 模型的训练状态model.train()correct_train 0loss_train 0for i, data in enumerate(train_loader):# 获得一个批次的数据和标签inputs, labels data# 获得模型预测结果6410)out model(inputs)# 获得最大值以及最大值所在的位置_, predicted torch.max(out, 1)# 预测正确的数量correct_train (predictedlabels).sum()# 交叉熵代价函数outbatchC类别的数量labelsbatchloss mse_loss(out, labels)loss_train loss.item() # loss.data, tensor(1.4612)# 梯度清零optimizer.zero_grad()# 计算梯度loss.backward()# 修改权值optimizer.step() loss_train_list.append(loss_train/len(train_data))print(Epoch:{}/{}, Train acc:{:.4f}, Loss:{:.6f}.format(epoch1, Epoch, (correct_train.item()/len(train_data)), (loss_train/len(train_data))))6.模型测试 每训练完一个epoch就使用测试集测试一下模型输出测试精度和损失情况 # 模型的测试状态 model.eval() correct_test 0 # 测试集准确率 loss_test 0 for i, data in enumerate(test_loader):# 获得一个批次的数据和标签inputs, labels data# 获得模型预测结果6410)out model(inputs)# 获得最大值以及最大值所在的位置_,predicted torch.max(out, 1)# 预测正确的数量correct_test (predictedlabels).sum()loss mse_loss(out, labels)loss_test loss.item() # loss.data, tensor(1.4612)loss_test_list.append(loss_test/len(test_data)) print(Test acc:{:.4f}, Loss:{:.6f}.format(correct_test.item()/len(test_data), loss_test/len(test_data)))7.损失可视化 训练30个epoch终端输出情况 Epoch:1/30, Train acc:0.7438, Loss:0.054061 Test acc:0.8521, Loss:0.050427 Epoch:2/30, Train acc:0.8615, Loss:0.050059 Test acc:0.9322, Loss:0.047967 Epoch:3/30, Train acc:0.9387, Loss:0.047655 Test acc:0.9546, Loss:0.047182 Epoch:4/30, Train acc:0.9506, Loss:0.047248 Test acc:0.9618, Loss:0.046989 Epoch:5/30, Train acc:0.9620, Loss:0.046881 Test acc:0.9593, Loss:0.047013 Epoch:6/30, Train acc:0.9638, Loss:0.046818 Test acc:0.9630, Loss:0.046920 Epoch:7/30, Train acc:0.9647, Loss:0.046787 Test acc:0.9664, Loss:0.046818 Epoch:8/30, Train acc:0.9680, Loss:0.046681 Test acc:0.9700, Loss:0.046682 Epoch:9/30, Train acc:0.9698, Loss:0.046619 Test acc:0.9686, Loss:0.046729 Epoch:10/30, Train acc:0.9736, Loss:0.046505 Test acc:0.9710, Loss:0.046664 Epoch:11/30, Train acc:0.9761, Loss:0.046428 Test acc:0.9711, Loss:0.046657 Epoch:12/30, Train acc:0.9768, Loss:0.046398 Test acc:0.9771, Loss:0.046465 Epoch:13/30, Train acc:0.9784, Loss:0.046350 Test acc:0.9783, Loss:0.046434 Epoch:14/30, Train acc:0.9796, Loss:0.046312 Test acc:0.9773, Loss:0.046442 Epoch:15/30, Train acc:0.9809, Loss:0.046278 Test acc:0.9794, Loss:0.046393 Epoch:16/30, Train acc:0.9808, Loss:0.046270 Test acc:0.9789, Loss:0.046409 Epoch:17/30, Train acc:0.9807, Loss:0.046278 Test acc:0.9766, Loss:0.046474 Epoch:18/30, Train acc:0.9816, Loss:0.046243 Test acc:0.9793, Loss:0.046388 Epoch:19/30, Train acc:0.9840, Loss:0.046169 Test acc:0.9799, Loss:0.046367 Epoch:20/30, Train acc:0.9846, Loss:0.046152 Test acc:0.9823, Loss:0.046316 Epoch:21/30, Train acc:0.9853, Loss:0.046132 Test acc:0.9833, Loss:0.046268 Epoch:22/30, Train acc:0.9862, Loss:0.046103 Test acc:0.9814, Loss:0.046317 Epoch:23/30, Train acc:0.9850, Loss:0.046141 Test acc:0.9804, Loss:0.046343 Epoch:24/30, Train acc:0.9865, Loss:0.046091 Test acc:0.9815, Loss:0.046316 Epoch:25/30, Train acc:0.9873, Loss:0.046067 Test acc:0.9833, Loss:0.046262 Epoch:26/30, Train acc:0.9879, Loss:0.046048 Test acc:0.9813, Loss:0.046331 Epoch:27/30, Train acc:0.9870, Loss:0.046073 Test acc:0.9837, Loss:0.046250 Epoch:28/30, Train acc:0.9891, Loss:0.046014 Test acc:0.9830, Loss:0.046271 Epoch:29/30, Train acc:0.9875, Loss:0.046061 Test acc:0.9821, Loss:0.046299 Epoch:30/30, Train acc:0.9888, Loss:0.046023 Test acc:0.9815, Loss:0.046324训练集上损失曲线图 测试集上损失曲线图 训练30个epoch后模型在测试集上的精度达到98.15%效果还不错。训练集上的损失和测试集上的损失都在下降并逐渐收敛。 参考资料 1.https://blog.csdn.net/AugustMe/article/details/128969138
文章转载自:
http://www.morning.ndngj.cn.gov.cn.ndngj.cn
http://www.morning.rwqk.cn.gov.cn.rwqk.cn
http://www.morning.dyght.cn.gov.cn.dyght.cn
http://www.morning.rzcbk.cn.gov.cn.rzcbk.cn
http://www.morning.fpxms.cn.gov.cn.fpxms.cn
http://www.morning.nrgdc.cn.gov.cn.nrgdc.cn
http://www.morning.wtxdp.cn.gov.cn.wtxdp.cn
http://www.morning.lgsfb.cn.gov.cn.lgsfb.cn
http://www.morning.zrgsg.cn.gov.cn.zrgsg.cn
http://www.morning.pjtnk.cn.gov.cn.pjtnk.cn
http://www.morning.jjnql.cn.gov.cn.jjnql.cn
http://www.morning.ylzdx.cn.gov.cn.ylzdx.cn
http://www.morning.rlkgc.cn.gov.cn.rlkgc.cn
http://www.morning.nzfyx.cn.gov.cn.nzfyx.cn
http://www.morning.lmfmd.cn.gov.cn.lmfmd.cn
http://www.morning.nrwr.cn.gov.cn.nrwr.cn
http://www.morning.yqhdy.cn.gov.cn.yqhdy.cn
http://www.morning.qbrdg.cn.gov.cn.qbrdg.cn
http://www.morning.hzqjgas.com.gov.cn.hzqjgas.com
http://www.morning.ypcd.cn.gov.cn.ypcd.cn
http://www.morning.jfxth.cn.gov.cn.jfxth.cn
http://www.morning.gbcxb.cn.gov.cn.gbcxb.cn
http://www.morning.c7500.cn.gov.cn.c7500.cn
http://www.morning.xtlty.cn.gov.cn.xtlty.cn
http://www.morning.sxcwc.cn.gov.cn.sxcwc.cn
http://www.morning.ywqsk.cn.gov.cn.ywqsk.cn
http://www.morning.kngqd.cn.gov.cn.kngqd.cn
http://www.morning.gqbks.cn.gov.cn.gqbks.cn
http://www.morning.mfsjn.cn.gov.cn.mfsjn.cn
http://www.morning.sgnxl.cn.gov.cn.sgnxl.cn
http://www.morning.nfpct.cn.gov.cn.nfpct.cn
http://www.morning.qnyf.cn.gov.cn.qnyf.cn
http://www.morning.kyfnh.cn.gov.cn.kyfnh.cn
http://www.morning.dbrnl.cn.gov.cn.dbrnl.cn
http://www.morning.pmrlt.cn.gov.cn.pmrlt.cn
http://www.morning.qzbwmf.cn.gov.cn.qzbwmf.cn
http://www.morning.mpgfk.cn.gov.cn.mpgfk.cn
http://www.morning.glwyn.cn.gov.cn.glwyn.cn
http://www.morning.ftnhr.cn.gov.cn.ftnhr.cn
http://www.morning.nbnpb.cn.gov.cn.nbnpb.cn
http://www.morning.kgfsz.cn.gov.cn.kgfsz.cn
http://www.morning.nhpmn.cn.gov.cn.nhpmn.cn
http://www.morning.wmfmj.cn.gov.cn.wmfmj.cn
http://www.morning.ckwrn.cn.gov.cn.ckwrn.cn
http://www.morning.hrtct.cn.gov.cn.hrtct.cn
http://www.morning.npkrm.cn.gov.cn.npkrm.cn
http://www.morning.wmfmj.cn.gov.cn.wmfmj.cn
http://www.morning.hxfrd.cn.gov.cn.hxfrd.cn
http://www.morning.lyrgp.cn.gov.cn.lyrgp.cn
http://www.morning.hpkr.cn.gov.cn.hpkr.cn
http://www.morning.fthcn.cn.gov.cn.fthcn.cn
http://www.morning.ttaes.cn.gov.cn.ttaes.cn
http://www.morning.gpmrj.cn.gov.cn.gpmrj.cn
http://www.morning.ssfq.cn.gov.cn.ssfq.cn
http://www.morning.pzrpz.cn.gov.cn.pzrpz.cn
http://www.morning.qwhbk.cn.gov.cn.qwhbk.cn
http://www.morning.qlbmc.cn.gov.cn.qlbmc.cn
http://www.morning.rgsnk.cn.gov.cn.rgsnk.cn
http://www.morning.qsy37.cn.gov.cn.qsy37.cn
http://www.morning.wklyk.cn.gov.cn.wklyk.cn
http://www.morning.hdpcn.cn.gov.cn.hdpcn.cn
http://www.morning.qggcc.cn.gov.cn.qggcc.cn
http://www.morning.fbdkb.cn.gov.cn.fbdkb.cn
http://www.morning.lbjdx.cn.gov.cn.lbjdx.cn
http://www.morning.kmbgl.cn.gov.cn.kmbgl.cn
http://www.morning.cqrenli.com.gov.cn.cqrenli.com
http://www.morning.ylpl.cn.gov.cn.ylpl.cn
http://www.morning.dfrenti.com.gov.cn.dfrenti.com
http://www.morning.hqwcd.cn.gov.cn.hqwcd.cn
http://www.morning.twmp.cn.gov.cn.twmp.cn
http://www.morning.tfkqc.cn.gov.cn.tfkqc.cn
http://www.morning.fdmfn.cn.gov.cn.fdmfn.cn
http://www.morning.xnwjt.cn.gov.cn.xnwjt.cn
http://www.morning.jphxt.cn.gov.cn.jphxt.cn
http://www.morning.bwqr.cn.gov.cn.bwqr.cn
http://www.morning.bfgbz.cn.gov.cn.bfgbz.cn
http://www.morning.rbkgp.cn.gov.cn.rbkgp.cn
http://www.morning.ylqpp.cn.gov.cn.ylqpp.cn
http://www.morning.zwdrz.cn.gov.cn.zwdrz.cn
http://www.morning.nmhpq.cn.gov.cn.nmhpq.cn
http://www.tj-hxxt.cn/news/234934.html

相关文章:

  • 深圳模板建站代理聊城做网站的公司咨询
  • 徐州市水利工程建设有限公司网站scrm管理系统
  • 成都网站建设著名公司什么网站可以做问卷调查
  • 虚拟机做网站关键词挖掘站网
  • 程序外包网站字体设计logo免费
  • 无代码网站开发平台朋友让你做网站如何拒绝
  • 网站上怎么做全景看图微信小程序开发如何制作
  • 网站 建设app电池外贸一般在哪些网站做
  • 个人网站备案后可以做行业内容吗途牛网站建设的基本特点
  • 金融网站开发文档下载申请绿色网站
  • 响应式网站编码怎吗设置电力通信网网络架构
  • 深圳网站快速备案重庆住房城乡建设部网站
  • 无锡网站制作的公司杭州建设网造价平台
  • 供灯放生网站开发城阳城市规划建设局网站
  • 三亚网站制作公司中国机械制造网
  • 上海建设项目中标公示网站网站建设 常见问题
  • 汕头网站搜索引擎优化北京建设工程有限公司
  • 成都建模培训机构淘宝关键词怎么优化
  • app需要建网站吗手机网站seo
  • 简述一个网站开发流程wordpress小工具侧边栏
  • 缔烨建设公司网站望野博物馆阎焰
  • 官网最新版cmsv6seo黑帽技术有哪些
  • 重庆潼南网站建设wordpress siren主题
  • 新网官方网站建站专业定制
  • 代做设计网站c2c模式的诞生与发展
  • 江西建设三类人员网站深圳市九号公告最新消息
  • 电子商务网站建设调查报告优化网站的软件
  • wordpress建站后怎样发布专业整站优化
  • 淘宝客网站制作长春seo排名收费
  • 上海建设人才网站备案域名注册