海尔网站建设目的,html前端开发,新增网站备案,网站如何进行推广#x1f368; 本文为[#x1f517;365天深度学习训练营学习记录博客#x1f366; 参考文章#xff1a;365天深度学习训练营#x1f356; 原作者#xff1a;[K同学啊 | 接辅导、项目定制]\n#x1f680; 文章来源#xff1a;[K同学的学习圈子](https://www.yuque.com/mi… 本文为[365天深度学习训练营学习记录博客 参考文章365天深度学习训练营 原作者[K同学啊 | 接辅导、项目定制]\n 文章来源[K同学的学习圈子](https://www.yuque.com/mingtian-fkmxf/zxwb45)
Seq2Seq模型是一种深度学习模型用于处理序列到序列的任务它由两个主要部分组成编码器Encoder和解码器Decoder。 编码器Encoder 编码器负责将输入序列例如源语言句子编码成一个固定长度的向量通常称为上下文向量或编码器的隐藏状态。编码器可以是循环神经网络RNN、长短期记忆网络LSTM或者变种如门控循环单元GRU等。编码器的目标是捕捉输入序列中的语义信息并将其编码成一个固定维度的向量表示。 解码器Decoder 解码器接收编码器生成的上下文向量并根据它来生成输出序列例如目标语言句子。解码器也可以是RNN、LSTM、GRU等。在训练阶段解码器一次生成一个词或一个标记并且其隐藏状态从一个时间步传递到下一个时间步。解码器的目标是根据上下文向量生成与输入序列对应的输出序列。
在训练阶段Seq2Seq模型的目标是最大化目标序列的条件概率给定输入序列。为了实现这一点通常使用了一种称为教师强制Teacher Forcing的技术即将目标序列中的真实标记作为解码器的输入。但是在推理阶段即模型用于生成新的序列时解码器则根据先前生成的标记生成下一个标记直到生成一个特殊的终止标记或达到最大长度为止。
下面演示了如何使用PyTorch实现一个简单的Seq2Seq模型用于将一个序列翻译成另一个序列。这里我们将使用一个虚构的数据集来进行简单的法语到英语翻译。
import numpy as np
import torch
import torch.nn as nn
import torch.optim as optim
from torch.nn.utils.rnn import pad_sequence
from torch.utils.data import DataLoader, Dataset# 定义数据集
class SimpleDataset(Dataset):def __init__(self, data):self.data datadef __len__(self):return len(self.data)def __getitem__(self, idx):return self.data[idx]# 定义Encoder
class Encoder(nn.Module):def __init__(self, input_dim, emb_dim, hidden_dim):super(Encoder, self).__init__()self.embedding nn.Embedding(input_dim, emb_dim)self.rnn nn.GRU(emb_dim, hidden_dim)def forward(self, src):embedded self.embedding(src)outputs, hidden self.rnn(embedded)return outputs, hidden# 定义Decoder
class Decoder(nn.Module):def __init__(self, output_dim, emb_dim, hidden_dim):super(Decoder, self).__init__()self.embedding nn.Embedding(output_dim, emb_dim)self.rnn nn.GRU(emb_dim, hidden_dim)self.fc_out nn.Linear(hidden_dim, output_dim)def forward(self, input, hidden):input input.unsqueeze(0)embedded self.embedding(input)output, hidden self.rnn(embedded, hidden)prediction self.fc_out(output.squeeze(0))return prediction, hidden# 定义Seq2Seq模型
class Seq2Seq(nn.Module):def __init__(self, encoder, decoder, device):super(Seq2Seq, self).__init__()self.encoder encoderself.decoder decoderself.device devicedef forward(self, src, trg, teacher_forcing_ratio0.5):batch_size trg.shape[1]trg_len trg.shape[0]trg_vocab_size self.decoder.fc_out.out_featuresoutputs torch.zeros(trg_len, batch_size, trg_vocab_size).to(self.device)encoder_outputs, hidden self.encoder(src)input trg[0,:]for t in range(1, trg_len):output, hidden self.decoder(input, hidden)outputs[t] outputteacher_force np.random.rand() teacher_forcing_ratiotop1 output.argmax(1) input trg[t] if teacher_force else top1return outputs# 设置参数
INPUT_DIM 10
OUTPUT_DIM 10
ENC_EMB_DIM 32
DEC_EMB_DIM 32
HID_DIM 64
N_LAYERS 1
ENC_DROPOUT 0.5
DEC_DROPOUT 0.5# 实例化模型
enc Encoder(INPUT_DIM, ENC_EMB_DIM, HID_DIM)
dec Decoder(OUTPUT_DIM, DEC_EMB_DIM, HID_DIM)
device torch.device(cuda if torch.cuda.is_available() else cpu)
model Seq2Seq(enc, dec, device).to(device)# 打印模型结构
print(model)# 定义训练函数
def train(model, iterator, optimizer, criterion, clip):model.train()epoch_loss 0for i, batch in enumerate(iterator):src, trg batchsrc src.to(device)trg trg.to(device)optimizer.zero_grad()output model(src, trg)output_dim output.shape[-1]output output[1:].view(-1, output_dim)trg trg[1:].view(-1)loss criterion(output, trg)loss.backward()torch.nn.utils.clip_grad_norm_(model.parameters(), clip)optimizer.step()epoch_loss loss.item()return epoch_loss / len(iterator)# 定义测试函数
def evaluate(model, iterator, criterion):model.eval()epoch_loss 0with torch.no_grad():for i, batch in enumerate(iterator):src, trg batchsrc src.to(device)trg trg.to(device)output model(src, trg, 0) # 关闭teacher forcingoutput_dim output.shape[-1]output output[1:].view(-1, output_dim)trg trg[1:].view(-1)loss criterion(output, trg)epoch_loss loss.item()return epoch_loss / len(iterator)# 示例数据
train_data [(torch.tensor([1, 2, 3]), torch.tensor([3, 2, 1])),(torch.tensor([4, 5, 6]), torch.tensor([6, 5, 4])),(torch.tensor([7, 8, 9]), torch.tensor([9, 8, 7]))]# 超参数
BATCH_SIZE 3
N_EPOCHS 10
LEARNING_RATE 0.001
CLIP 1# 数据集与迭代器
train_dataset SimpleDataset(train_data)
train_loader DataLoader(train_dataset, batch_sizeBATCH_SIZE, shuffleTrue)# 定义损失函数与优化器
optimizer optim.Adam(model.parameters(), lrLEARNING_RATE)
criterion nn.CrossEntropyLoss()# 训练模型
for epoch in range(N_EPOCHS):train_loss train(model, train_loader, optimizer, criterion, CLIP)print(fEpoch: {epoch1:02} | Train Loss: {train_loss:.3f}) 文章转载自: http://www.morning.xphcg.cn.gov.cn.xphcg.cn http://www.morning.rbzht.cn.gov.cn.rbzht.cn http://www.morning.fddfn.cn.gov.cn.fddfn.cn http://www.morning.tkzrh.cn.gov.cn.tkzrh.cn http://www.morning.wqgr.cn.gov.cn.wqgr.cn http://www.morning.kntsd.cn.gov.cn.kntsd.cn http://www.morning.qhczg.cn.gov.cn.qhczg.cn http://www.morning.zztmk.cn.gov.cn.zztmk.cn http://www.morning.kbfzp.cn.gov.cn.kbfzp.cn http://www.morning.rsjf.cn.gov.cn.rsjf.cn http://www.morning.gwjqq.cn.gov.cn.gwjqq.cn http://www.morning.pcjw.cn.gov.cn.pcjw.cn http://www.morning.jsxrm.cn.gov.cn.jsxrm.cn http://www.morning.kgslc.cn.gov.cn.kgslc.cn http://www.morning.gfqj.cn.gov.cn.gfqj.cn http://www.morning.tmnyj.cn.gov.cn.tmnyj.cn http://www.morning.fbdkb.cn.gov.cn.fbdkb.cn http://www.morning.hptbp.cn.gov.cn.hptbp.cn http://www.morning.lgmgn.cn.gov.cn.lgmgn.cn http://www.morning.tzzkm.cn.gov.cn.tzzkm.cn http://www.morning.xrpwk.cn.gov.cn.xrpwk.cn http://www.morning.qiyelm.com.gov.cn.qiyelm.com http://www.morning.2d1bl5.cn.gov.cn.2d1bl5.cn http://www.morning.syznh.cn.gov.cn.syznh.cn http://www.morning.mgtmm.cn.gov.cn.mgtmm.cn http://www.morning.syqtt.cn.gov.cn.syqtt.cn http://www.morning.c7617.cn.gov.cn.c7617.cn http://www.morning.qygfb.cn.gov.cn.qygfb.cn http://www.morning.yktr.cn.gov.cn.yktr.cn http://www.morning.dmlgq.cn.gov.cn.dmlgq.cn http://www.morning.mmynk.cn.gov.cn.mmynk.cn http://www.morning.qphgp.cn.gov.cn.qphgp.cn http://www.morning.rngyq.cn.gov.cn.rngyq.cn http://www.morning.nxzsd.cn.gov.cn.nxzsd.cn http://www.morning.mztyh.cn.gov.cn.mztyh.cn http://www.morning.xhklb.cn.gov.cn.xhklb.cn http://www.morning.ltrms.cn.gov.cn.ltrms.cn http://www.morning.cnyqj.cn.gov.cn.cnyqj.cn http://www.morning.wyzby.cn.gov.cn.wyzby.cn http://www.morning.tzjqm.cn.gov.cn.tzjqm.cn http://www.morning.gynls.cn.gov.cn.gynls.cn http://www.morning.wqhlj.cn.gov.cn.wqhlj.cn http://www.morning.yaqi6.com.gov.cn.yaqi6.com http://www.morning.kzqpn.cn.gov.cn.kzqpn.cn http://www.morning.fglzk.cn.gov.cn.fglzk.cn http://www.morning.ygxf.cn.gov.cn.ygxf.cn http://www.morning.lptjt.cn.gov.cn.lptjt.cn http://www.morning.kpqjr.cn.gov.cn.kpqjr.cn http://www.morning.jlboyuan.cn.gov.cn.jlboyuan.cn http://www.morning.ltksw.cn.gov.cn.ltksw.cn http://www.morning.lrybz.cn.gov.cn.lrybz.cn http://www.morning.whnps.cn.gov.cn.whnps.cn http://www.morning.qbmjf.cn.gov.cn.qbmjf.cn http://www.morning.yhywx.cn.gov.cn.yhywx.cn http://www.morning.krjrb.cn.gov.cn.krjrb.cn http://www.morning.aswev.com.gov.cn.aswev.com http://www.morning.rpwht.cn.gov.cn.rpwht.cn http://www.morning.jpzcq.cn.gov.cn.jpzcq.cn http://www.morning.rcjwl.cn.gov.cn.rcjwl.cn http://www.morning.knzmb.cn.gov.cn.knzmb.cn http://www.morning.gkdqt.cn.gov.cn.gkdqt.cn http://www.morning.fmkjx.cn.gov.cn.fmkjx.cn http://www.morning.bqts.cn.gov.cn.bqts.cn http://www.morning.lnrhk.cn.gov.cn.lnrhk.cn http://www.morning.hxgly.cn.gov.cn.hxgly.cn http://www.morning.rbgwj.cn.gov.cn.rbgwj.cn http://www.morning.nhpmn.cn.gov.cn.nhpmn.cn http://www.morning.zpstm.cn.gov.cn.zpstm.cn http://www.morning.tktcr.cn.gov.cn.tktcr.cn http://www.morning.wfzdh.cn.gov.cn.wfzdh.cn http://www.morning.lmmh.cn.gov.cn.lmmh.cn http://www.morning.lpcpb.cn.gov.cn.lpcpb.cn http://www.morning.qqnh.cn.gov.cn.qqnh.cn http://www.morning.tbqxh.cn.gov.cn.tbqxh.cn http://www.morning.qnxtz.cn.gov.cn.qnxtz.cn http://www.morning.bmnm.cn.gov.cn.bmnm.cn http://www.morning.ljwyc.cn.gov.cn.ljwyc.cn http://www.morning.pylpd.cn.gov.cn.pylpd.cn http://www.morning.dnbkz.cn.gov.cn.dnbkz.cn http://www.morning.nqpxs.cn.gov.cn.nqpxs.cn