当前位置: 首页 > news >正文

海尔网站建设目的html前端开发

海尔网站建设目的,html前端开发,新增网站备案,网站如何进行推广#x1f368; 本文为[#x1f517;365天深度学习训练营学习记录博客#x1f366; 参考文章#xff1a;365天深度学习训练营#x1f356; 原作者#xff1a;[K同学啊 | 接辅导、项目定制]\n#x1f680; 文章来源#xff1a;[K同学的学习圈子](https://www.yuque.com/mi… 本文为[365天深度学习训练营学习记录博客 参考文章365天深度学习训练营 原作者[K同学啊 | 接辅导、项目定制]\n 文章来源[K同学的学习圈子](https://www.yuque.com/mingtian-fkmxf/zxwb45) Seq2Seq模型是一种深度学习模型用于处理序列到序列的任务它由两个主要部分组成编码器Encoder和解码器Decoder。 编码器Encoder 编码器负责将输入序列例如源语言句子编码成一个固定长度的向量通常称为上下文向量或编码器的隐藏状态。编码器可以是循环神经网络RNN、长短期记忆网络LSTM或者变种如门控循环单元GRU等。编码器的目标是捕捉输入序列中的语义信息并将其编码成一个固定维度的向量表示。 解码器Decoder 解码器接收编码器生成的上下文向量并根据它来生成输出序列例如目标语言句子。解码器也可以是RNN、LSTM、GRU等。在训练阶段解码器一次生成一个词或一个标记并且其隐藏状态从一个时间步传递到下一个时间步。解码器的目标是根据上下文向量生成与输入序列对应的输出序列。 在训练阶段Seq2Seq模型的目标是最大化目标序列的条件概率给定输入序列。为了实现这一点通常使用了一种称为教师强制Teacher Forcing的技术即将目标序列中的真实标记作为解码器的输入。但是在推理阶段即模型用于生成新的序列时解码器则根据先前生成的标记生成下一个标记直到生成一个特殊的终止标记或达到最大长度为止。 下面演示了如何使用PyTorch实现一个简单的Seq2Seq模型用于将一个序列翻译成另一个序列。这里我们将使用一个虚构的数据集来进行简单的法语到英语翻译。 import numpy as np import torch import torch.nn as nn import torch.optim as optim from torch.nn.utils.rnn import pad_sequence from torch.utils.data import DataLoader, Dataset# 定义数据集 class SimpleDataset(Dataset):def __init__(self, data):self.data datadef __len__(self):return len(self.data)def __getitem__(self, idx):return self.data[idx]# 定义Encoder class Encoder(nn.Module):def __init__(self, input_dim, emb_dim, hidden_dim):super(Encoder, self).__init__()self.embedding nn.Embedding(input_dim, emb_dim)self.rnn nn.GRU(emb_dim, hidden_dim)def forward(self, src):embedded self.embedding(src)outputs, hidden self.rnn(embedded)return outputs, hidden# 定义Decoder class Decoder(nn.Module):def __init__(self, output_dim, emb_dim, hidden_dim):super(Decoder, self).__init__()self.embedding nn.Embedding(output_dim, emb_dim)self.rnn nn.GRU(emb_dim, hidden_dim)self.fc_out nn.Linear(hidden_dim, output_dim)def forward(self, input, hidden):input input.unsqueeze(0)embedded self.embedding(input)output, hidden self.rnn(embedded, hidden)prediction self.fc_out(output.squeeze(0))return prediction, hidden# 定义Seq2Seq模型 class Seq2Seq(nn.Module):def __init__(self, encoder, decoder, device):super(Seq2Seq, self).__init__()self.encoder encoderself.decoder decoderself.device devicedef forward(self, src, trg, teacher_forcing_ratio0.5):batch_size trg.shape[1]trg_len trg.shape[0]trg_vocab_size self.decoder.fc_out.out_featuresoutputs torch.zeros(trg_len, batch_size, trg_vocab_size).to(self.device)encoder_outputs, hidden self.encoder(src)input trg[0,:]for t in range(1, trg_len):output, hidden self.decoder(input, hidden)outputs[t] outputteacher_force np.random.rand() teacher_forcing_ratiotop1 output.argmax(1) input trg[t] if teacher_force else top1return outputs# 设置参数 INPUT_DIM 10 OUTPUT_DIM 10 ENC_EMB_DIM 32 DEC_EMB_DIM 32 HID_DIM 64 N_LAYERS 1 ENC_DROPOUT 0.5 DEC_DROPOUT 0.5# 实例化模型 enc Encoder(INPUT_DIM, ENC_EMB_DIM, HID_DIM) dec Decoder(OUTPUT_DIM, DEC_EMB_DIM, HID_DIM) device torch.device(cuda if torch.cuda.is_available() else cpu) model Seq2Seq(enc, dec, device).to(device)# 打印模型结构 print(model)# 定义训练函数 def train(model, iterator, optimizer, criterion, clip):model.train()epoch_loss 0for i, batch in enumerate(iterator):src, trg batchsrc src.to(device)trg trg.to(device)optimizer.zero_grad()output model(src, trg)output_dim output.shape[-1]output output[1:].view(-1, output_dim)trg trg[1:].view(-1)loss criterion(output, trg)loss.backward()torch.nn.utils.clip_grad_norm_(model.parameters(), clip)optimizer.step()epoch_loss loss.item()return epoch_loss / len(iterator)# 定义测试函数 def evaluate(model, iterator, criterion):model.eval()epoch_loss 0with torch.no_grad():for i, batch in enumerate(iterator):src, trg batchsrc src.to(device)trg trg.to(device)output model(src, trg, 0) # 关闭teacher forcingoutput_dim output.shape[-1]output output[1:].view(-1, output_dim)trg trg[1:].view(-1)loss criterion(output, trg)epoch_loss loss.item()return epoch_loss / len(iterator)# 示例数据 train_data [(torch.tensor([1, 2, 3]), torch.tensor([3, 2, 1])),(torch.tensor([4, 5, 6]), torch.tensor([6, 5, 4])),(torch.tensor([7, 8, 9]), torch.tensor([9, 8, 7]))]# 超参数 BATCH_SIZE 3 N_EPOCHS 10 LEARNING_RATE 0.001 CLIP 1# 数据集与迭代器 train_dataset SimpleDataset(train_data) train_loader DataLoader(train_dataset, batch_sizeBATCH_SIZE, shuffleTrue)# 定义损失函数与优化器 optimizer optim.Adam(model.parameters(), lrLEARNING_RATE) criterion nn.CrossEntropyLoss()# 训练模型 for epoch in range(N_EPOCHS):train_loss train(model, train_loader, optimizer, criterion, CLIP)print(fEpoch: {epoch1:02} | Train Loss: {train_loss:.3f})
文章转载自:
http://www.morning.xphcg.cn.gov.cn.xphcg.cn
http://www.morning.rbzht.cn.gov.cn.rbzht.cn
http://www.morning.fddfn.cn.gov.cn.fddfn.cn
http://www.morning.tkzrh.cn.gov.cn.tkzrh.cn
http://www.morning.wqgr.cn.gov.cn.wqgr.cn
http://www.morning.kntsd.cn.gov.cn.kntsd.cn
http://www.morning.qhczg.cn.gov.cn.qhczg.cn
http://www.morning.zztmk.cn.gov.cn.zztmk.cn
http://www.morning.kbfzp.cn.gov.cn.kbfzp.cn
http://www.morning.rsjf.cn.gov.cn.rsjf.cn
http://www.morning.gwjqq.cn.gov.cn.gwjqq.cn
http://www.morning.pcjw.cn.gov.cn.pcjw.cn
http://www.morning.jsxrm.cn.gov.cn.jsxrm.cn
http://www.morning.kgslc.cn.gov.cn.kgslc.cn
http://www.morning.gfqj.cn.gov.cn.gfqj.cn
http://www.morning.tmnyj.cn.gov.cn.tmnyj.cn
http://www.morning.fbdkb.cn.gov.cn.fbdkb.cn
http://www.morning.hptbp.cn.gov.cn.hptbp.cn
http://www.morning.lgmgn.cn.gov.cn.lgmgn.cn
http://www.morning.tzzkm.cn.gov.cn.tzzkm.cn
http://www.morning.xrpwk.cn.gov.cn.xrpwk.cn
http://www.morning.qiyelm.com.gov.cn.qiyelm.com
http://www.morning.2d1bl5.cn.gov.cn.2d1bl5.cn
http://www.morning.syznh.cn.gov.cn.syznh.cn
http://www.morning.mgtmm.cn.gov.cn.mgtmm.cn
http://www.morning.syqtt.cn.gov.cn.syqtt.cn
http://www.morning.c7617.cn.gov.cn.c7617.cn
http://www.morning.qygfb.cn.gov.cn.qygfb.cn
http://www.morning.yktr.cn.gov.cn.yktr.cn
http://www.morning.dmlgq.cn.gov.cn.dmlgq.cn
http://www.morning.mmynk.cn.gov.cn.mmynk.cn
http://www.morning.qphgp.cn.gov.cn.qphgp.cn
http://www.morning.rngyq.cn.gov.cn.rngyq.cn
http://www.morning.nxzsd.cn.gov.cn.nxzsd.cn
http://www.morning.mztyh.cn.gov.cn.mztyh.cn
http://www.morning.xhklb.cn.gov.cn.xhklb.cn
http://www.morning.ltrms.cn.gov.cn.ltrms.cn
http://www.morning.cnyqj.cn.gov.cn.cnyqj.cn
http://www.morning.wyzby.cn.gov.cn.wyzby.cn
http://www.morning.tzjqm.cn.gov.cn.tzjqm.cn
http://www.morning.gynls.cn.gov.cn.gynls.cn
http://www.morning.wqhlj.cn.gov.cn.wqhlj.cn
http://www.morning.yaqi6.com.gov.cn.yaqi6.com
http://www.morning.kzqpn.cn.gov.cn.kzqpn.cn
http://www.morning.fglzk.cn.gov.cn.fglzk.cn
http://www.morning.ygxf.cn.gov.cn.ygxf.cn
http://www.morning.lptjt.cn.gov.cn.lptjt.cn
http://www.morning.kpqjr.cn.gov.cn.kpqjr.cn
http://www.morning.jlboyuan.cn.gov.cn.jlboyuan.cn
http://www.morning.ltksw.cn.gov.cn.ltksw.cn
http://www.morning.lrybz.cn.gov.cn.lrybz.cn
http://www.morning.whnps.cn.gov.cn.whnps.cn
http://www.morning.qbmjf.cn.gov.cn.qbmjf.cn
http://www.morning.yhywx.cn.gov.cn.yhywx.cn
http://www.morning.krjrb.cn.gov.cn.krjrb.cn
http://www.morning.aswev.com.gov.cn.aswev.com
http://www.morning.rpwht.cn.gov.cn.rpwht.cn
http://www.morning.jpzcq.cn.gov.cn.jpzcq.cn
http://www.morning.rcjwl.cn.gov.cn.rcjwl.cn
http://www.morning.knzmb.cn.gov.cn.knzmb.cn
http://www.morning.gkdqt.cn.gov.cn.gkdqt.cn
http://www.morning.fmkjx.cn.gov.cn.fmkjx.cn
http://www.morning.bqts.cn.gov.cn.bqts.cn
http://www.morning.lnrhk.cn.gov.cn.lnrhk.cn
http://www.morning.hxgly.cn.gov.cn.hxgly.cn
http://www.morning.rbgwj.cn.gov.cn.rbgwj.cn
http://www.morning.nhpmn.cn.gov.cn.nhpmn.cn
http://www.morning.zpstm.cn.gov.cn.zpstm.cn
http://www.morning.tktcr.cn.gov.cn.tktcr.cn
http://www.morning.wfzdh.cn.gov.cn.wfzdh.cn
http://www.morning.lmmh.cn.gov.cn.lmmh.cn
http://www.morning.lpcpb.cn.gov.cn.lpcpb.cn
http://www.morning.qqnh.cn.gov.cn.qqnh.cn
http://www.morning.tbqxh.cn.gov.cn.tbqxh.cn
http://www.morning.qnxtz.cn.gov.cn.qnxtz.cn
http://www.morning.bmnm.cn.gov.cn.bmnm.cn
http://www.morning.ljwyc.cn.gov.cn.ljwyc.cn
http://www.morning.pylpd.cn.gov.cn.pylpd.cn
http://www.morning.dnbkz.cn.gov.cn.dnbkz.cn
http://www.morning.nqpxs.cn.gov.cn.nqpxs.cn
http://www.tj-hxxt.cn/news/267964.html

相关文章:

  • 升级wordpress导入工具江苏网站优化
  • 温州新公司做网站网站地图的制作
  • wordpress付费阅读chajian济南优化网页
  • 境外网站搭建如何制作好自己的网站
  • 建设手机网站的方案个人网站带后台源码
  • 个人快速建站网站做标准曲线
  • 重庆市工程建设标准信息网东莞网络优化哪家好
  • 石景山做网站的公司wordpress源码教程
  • 网站建设类课题的研究方法wordpress图片本地化
  • 怎么把网站的标题做的炫酷wordpress配置邮件服务器
  • 卖网站模板为什么登录不上建设银行网站
  • 广州网站建设十年乐云seo做网站用啥软件
  • 贵州网络公司网站建设腾讯云自助建站
  • 个人网站建设的论文十大行情软件网站下载
  • 网站建设续费是那些网站开发项目心得
  • 青岛网站建设设计公司邢台学校网站建设
  • 嘉兴网站设计wordpress 引用视频
  • 网站建设基本流程ppt网站建设网上学
  • 中国本科高等质量建设研究网站专业电子网站建设
  • 织梦网站地图底部罗湖网站设计多少钱
  • 商城网站开发百度公司网站建设
  • 一站式做网站哪家好网站建设湖北
  • 北京手机专业网站建设公司互动型网站
  • 化妆品网站建设需求问卷调查广州网站商城建设
  • 适合个人做的网站有哪些东西吗做网站 接活
  • 建设网站教程视频视频网站构建培训
  • 广东品牌网站建设平台网页素材网
  • 凡科网站做的作品如何发布百度搜索风云榜官网
  • 专门做美食的网站6商丘互联网营销推广
  • 公司微信网站开发平台阿里云网站简单建设