当前位置: 首页 > news >正文

重庆技术网站建设中国的网站域名是什么

重庆技术网站建设,中国的网站域名是什么,学会了php的语法怎么做网站,手机上干点啥能挣零花钱系列文章 【如何训练一个中英翻译模型】LSTM机器翻译seq2seq字符编码#xff08;一#xff09; 【如何训练一个中英翻译模型】LSTM机器翻译模型训练与保存#xff08;二#xff09; 【如何训练一个中英翻译模型】LSTM机器翻译模型部署#xff08;三#xff09; 【如何训…系列文章 【如何训练一个中英翻译模型】LSTM机器翻译seq2seq字符编码一 【如何训练一个中英翻译模型】LSTM机器翻译模型训练与保存二 【如何训练一个中英翻译模型】LSTM机器翻译模型部署三 【如何训练一个中英翻译模型】LSTM机器翻译模型部署之onnxpython四 训练一个翻译模型我们需要一份数据集以cmn.txt数据集为例 取前两行数据来看看如下 Wait! 等等 Hello! 你好。对于中译英我们希望让网络输入“Wait!”输出“等等”输入“Hello!”输出“你好。” 那么问题来了这样的数据要如何输入网络进行训练呢 显然需要进行编码大白话说就是用“0101…”这样的数据来表示这些文字为了方便表达后面称为字符。 先假设我们的训练数据只取第一行那就是只有“Wait! 等等”那么我们开始对它进行编码读取cmn.txt文件并取第一行数据中英文分别保存在target_texts input_texts,然后将所有的字符取出来中英文字符并分别保存在target_characters input_characters input_texts [] # 保存英文数据集 target_texts [] # 保存中文数据集 input_characters set() # 保存英文字符比如a,bc target_characters set() # 保存中文字符,比如你我她 with open(data_path, r, encodingutf-8) as f:lines f.read().split(\n)# 一行一行读取数据 for line in lines[: min(num_samples, len(lines) - 1)]: # 遍历每一行数据集用min来防止越出input_text, target_text line.split(\t) # 分割中英文# We use tab as the start sequence character# for the targets, and \n as end sequence character.target_text \t target_text \ninput_texts.append(input_text)target_texts.append(target_text)for char in input_text: # 提取字符if char not in input_characters:input_characters.add(char)for char in target_text:if char not in target_characters:target_characters.add(char)input_characters sorted(list(input_characters)) # 排序一下 target_characters sorted(list(target_characters)) num_encoder_tokens len(input_characters) # 英文字符数量 num_decoder_tokens len(target_characters) # 中文文字数量 max_encoder_seq_length max([len(txt) for txt in input_texts]) # 输入的最长句子长度 max_decoder_seq_length max([len(txt) for txt in target_texts])# 输出的最长句子长度print(Number of samples:, len(input_texts)) print(Number of unique input tokens:, num_encoder_tokens) print(Number of unique output tokens:, num_decoder_tokens) print(Max sequence length for inputs:, max_encoder_seq_length) print(Max sequence length for outputs:, max_decoder_seq_length)可以得到这样的数据 #原始数据Wait! 等等input_texts [Wait!] target_texts [\t等等\n]input_characters [!, W, a, i, t] target_characters [\t, \n, 等, ]然后我们就可以开始编码啦。 先对input_characters 于target_characters 进行编号也就是 [!, W, a, i, t]0 1 2 3 4 [\t, \n, 等, ]0 1 2 3 代码如下 input_token_index dict([(char, i) for i, char in enumerate(input_characters)]) target_token_index dict([(char, i) for i, char in enumerate(target_characters)])编号完之后就是 input_token_index {!: 0,W: 1,a: 2,i: 3,t: 4} target_token_index {\t: 0,\n: 1,等: 2,: 3}有了input_token_index 与target_token_index 我们就可以开始对输入输出进行编码先来看输入。 假设我们的输入只有一个字符W那么根据input_token_index 对W进行编码就如下 可看到W用向量01000表示了只有W的那个位置被标为1其余标为0 依次类推对Wait!进行编码结果如下 对中文进行编码也是一样的操作 因此输入输出分别可以用encoder_input_data与decoder_input_data这两个矩阵来表示了这两个矩阵里面的值是一堆01 [!, W, a, i, t] encoder_input_data [[[0. 1. 0. 0. 0.] W[0. 0. 1. 0. 0.] a[0. 0. 0. 1. 0.] i[0. 0. 0. 0. 1.] t[1. 0. 0. 0. 0.]]] !target_texts通过编码得到 [\t, \n, 等, ] decoder_input_data [[[1. 0. 0. 0.] \t[0. 0. 1. 0.] 等[0. 0. 1. 0.] 等[0. 0. 0. 1.] ![0. 1. 0. 0.]]] \n为了进一步说明我们这时候将训练集改为2也就是num_samples 2那么 input_texts [Wait!, Hello!] target_texts [\t等等\n, \t你好。\n] input_characters [!, H, W, a, e, i, l, o, t] target_characters [\t, \n, 。, 你, 好, 等, ]分别对输入输出的内容进行编码可得到 encoder_input_data [[[0. 0. 1. 0. 0. 0. 0. 0. 0.] # 第一句 Wait![0. 0. 0. 1. 0. 0. 0. 0. 0.][0. 0. 0. 0. 0. 1. 0. 0. 0.][0. 0. 0. 0. 0. 0. 0. 0. 1.][1. 0. 0. 0. 0. 0. 0. 0. 0.][0. 0. 0. 0. 0. 0. 0. 0. 0.]][[0. 1. 0. 0. 0. 0. 0. 0. 0.] # 第二句 Hello[0. 0. 0. 0. 1. 0. 0. 0. 0.][0. 0. 0. 0. 0. 0. 1. 0. 0.][0. 0. 0. 0. 0. 0. 1. 0. 0.][0. 0. 0. 0. 0. 0. 0. 1. 0.][1. 0. 0. 0. 0. 0. 0. 0. 0.]]]decoder_input_data [[[1. 0. 0. 0. 0. 0. 0.] # 第一句 \t等等\n[0. 0. 0. 0. 0. 1. 0.][0. 0. 0. 0. 0. 1. 0.][0. 0. 0. 0. 0. 0. 1.][0. 1. 0. 0. 0. 0. 0.]][[1. 0. 0. 0. 0. 0. 0.] # 第二句 \t你好。\n[0. 0. 0. 1. 0. 0. 0.][0. 0. 0. 0. 1. 0. 0.][0. 0. 1. 0. 0. 0. 0.][0. 1. 0. 0. 0. 0. 0.]]]到这里我们就清楚了这些文字用向量是怎么表示的有了向量我们可以进行计算也就是可以搭建一个网络来训练这些数据了这个网络的输入是一堆0 1矩阵输出也是一堆0 1矩阵输入矩阵在输入字符那里索引得出这个矩阵是什么句子而输出矩阵在输出字符那里索引得出这个句子代表什么句子因此我们就可以来训练一个翻译模型了。 总结下来翻译模型实际上就是输入一个0 1矩阵输出另外一个0 1矩阵。 句子-输入矩阵-运算-输出矩阵-句子 下面是相应的代码 # mapping token to index easily to vectors # 处理方便进行编码为向量 # { # a: 0, # b: 1, # c: 2, # ... # z: 25 # } input_token_index dict([(char, i) for i, char in enumerate(input_characters)]) target_token_index dict([(char, i) for i, char in enumerate(target_characters)])# np.zeros(shape, dtype, order) # shape is an tuple, in here 3D encoder_input_data np.zeros( # (12000, 32, 73) 数据集长度、句子长度、字符数量(len(input_texts), max_encoder_seq_length, num_encoder_tokens),dtypefloat32) decoder_input_data np.zeros( # (12000, 22, 2751)(len(input_texts), max_decoder_seq_length, num_decoder_tokens),dtypefloat32) decoder_target_data np.zeros( # (12000, 22, 2751)(len(input_texts), max_decoder_seq_length, num_decoder_tokens),dtypefloat32)# 遍历输入文本input_texts和目标文本target_texts中的每个字符 # 并将它们转换为数值张量以供深度学习模型使用。 #编码如下 #我你他这国是家人中 #1 0 0 0 1 1 0 1 1我是中国人 #1 0 1 0 0 1 1 1 0他是我家人 # input_texts contain all english sentences # output_texts contain all chinese sentences # zip(ABC,xyz) Ax By Cz, looks like that # the aim is: vectorilize text, 3D # zip(input_texts, target_texts)成对取出输入输出比如input_text 你好target_text you goodfor i, (input_text, target_text) in enumerate(zip(input_texts, target_texts)):for t, char in enumerate(input_text):# 3D vector only z-index has char its value equals 1.0encoder_input_data[i, t, input_token_index[char]] 1.for t, char in enumerate(target_text):# decoder_target_data is ahead of decoder_input_data by one timestepdecoder_input_data[i, t, target_token_index[char]] 1.if t 0:# decoder_target_data will be ahead by one timestep# and will not include the start character.# igone t0 and start t1, meansdecoder_target_data[i, t - 1, target_token_index[char]] 1.在进行模型推理的时候你同样需要相同的一份input_token_index 与target_token_index 那么就需要将input_characters与target_characters保存下来在推理之前将你输入的内容进行编码因为只有同一份位置编码你的网络才能认识要不然全乱套了下面是将input_characters与target_characters保存为txt与读取的方法 # 将 input_characters保存为 input_words.txt 文件 with open(input_words.txt, w, newline) as f:for char in input_characters:if char \t:f.write(\\t\n)elif char \n:f.write(\\n\n)else:f.write(char \n)# 将 target_characters保存为 target_words.txt 文件 with open(target_words.txt, w, newline) as f:for char in target_characters:if char \t:f.write(\\t\n)elif char \n:f.write(\\n\n)else:f.write(char \n)# 从 input_words.txt 文件中读取字符串 with open(input_words.txt, r) as f:input_words f.readlines()input_characters [line.rstrip(\n) for line in input_words]# 从 target_words.txt 文件中读取字符串 with open(target_words.txt, r, newline) as f:target_words [line.strip() for line in f.readlines()]target_characters [char.replace(\\t, \t).replace(\\n, \n) for char in target_words]#字符处理以方便进行编码 input_token_index dict([(char, i) for i, char in enumerate(input_characters)]) target_token_index dict([(char, i) for i, char in enumerate(target_characters)])
文章转载自:
http://www.morning.jgncd.cn.gov.cn.jgncd.cn
http://www.morning.jxhlx.cn.gov.cn.jxhlx.cn
http://www.morning.mwlxk.cn.gov.cn.mwlxk.cn
http://www.morning.yrblz.cn.gov.cn.yrblz.cn
http://www.morning.xqjrg.cn.gov.cn.xqjrg.cn
http://www.morning.bxgpy.cn.gov.cn.bxgpy.cn
http://www.morning.cdygl.com.gov.cn.cdygl.com
http://www.morning.mbaiwan.com.gov.cn.mbaiwan.com
http://www.morning.cgthq.cn.gov.cn.cgthq.cn
http://www.morning.wrbnh.cn.gov.cn.wrbnh.cn
http://www.morning.pcngq.cn.gov.cn.pcngq.cn
http://www.morning.lkkkf.cn.gov.cn.lkkkf.cn
http://www.morning.xfmzk.cn.gov.cn.xfmzk.cn
http://www.morning.wrtxk.cn.gov.cn.wrtxk.cn
http://www.morning.pqcsx.cn.gov.cn.pqcsx.cn
http://www.morning.fynkt.cn.gov.cn.fynkt.cn
http://www.morning.hsxkq.cn.gov.cn.hsxkq.cn
http://www.morning.rlnm.cn.gov.cn.rlnm.cn
http://www.morning.gxhqt.cn.gov.cn.gxhqt.cn
http://www.morning.tqrbl.cn.gov.cn.tqrbl.cn
http://www.morning.xyhql.cn.gov.cn.xyhql.cn
http://www.morning.rklgm.cn.gov.cn.rklgm.cn
http://www.morning.mqdr.cn.gov.cn.mqdr.cn
http://www.morning.skrh.cn.gov.cn.skrh.cn
http://www.morning.bnpn.cn.gov.cn.bnpn.cn
http://www.morning.gbfck.cn.gov.cn.gbfck.cn
http://www.morning.lqrpk.cn.gov.cn.lqrpk.cn
http://www.morning.xhpnp.cn.gov.cn.xhpnp.cn
http://www.morning.lngyd.cn.gov.cn.lngyd.cn
http://www.morning.flxqm.cn.gov.cn.flxqm.cn
http://www.morning.hwnnh.cn.gov.cn.hwnnh.cn
http://www.morning.btpzn.cn.gov.cn.btpzn.cn
http://www.morning.qbpqw.cn.gov.cn.qbpqw.cn
http://www.morning.cmhkt.cn.gov.cn.cmhkt.cn
http://www.morning.xqspn.cn.gov.cn.xqspn.cn
http://www.morning.xxhc.cn.gov.cn.xxhc.cn
http://www.morning.rbknf.cn.gov.cn.rbknf.cn
http://www.morning.zqzzn.cn.gov.cn.zqzzn.cn
http://www.morning.fpqsd.cn.gov.cn.fpqsd.cn
http://www.morning.qpfmh.cn.gov.cn.qpfmh.cn
http://www.morning.xpzrx.cn.gov.cn.xpzrx.cn
http://www.morning.c-ae.cn.gov.cn.c-ae.cn
http://www.morning.ghxsn.cn.gov.cn.ghxsn.cn
http://www.morning.nd-test.com.gov.cn.nd-test.com
http://www.morning.rdlrm.cn.gov.cn.rdlrm.cn
http://www.morning.khzml.cn.gov.cn.khzml.cn
http://www.morning.fhwfk.cn.gov.cn.fhwfk.cn
http://www.morning.jltmb.cn.gov.cn.jltmb.cn
http://www.morning.rzbgn.cn.gov.cn.rzbgn.cn
http://www.morning.rrcrs.cn.gov.cn.rrcrs.cn
http://www.morning.tldfp.cn.gov.cn.tldfp.cn
http://www.morning.pghgq.cn.gov.cn.pghgq.cn
http://www.morning.wqpr.cn.gov.cn.wqpr.cn
http://www.morning.wmhlz.cn.gov.cn.wmhlz.cn
http://www.morning.rmxwm.cn.gov.cn.rmxwm.cn
http://www.morning.rstrc.cn.gov.cn.rstrc.cn
http://www.morning.xcdph.cn.gov.cn.xcdph.cn
http://www.morning.jqrhz.cn.gov.cn.jqrhz.cn
http://www.morning.mrbzq.cn.gov.cn.mrbzq.cn
http://www.morning.rbcw.cn.gov.cn.rbcw.cn
http://www.morning.ynrzf.cn.gov.cn.ynrzf.cn
http://www.morning.hbfqm.cn.gov.cn.hbfqm.cn
http://www.morning.txtzr.cn.gov.cn.txtzr.cn
http://www.morning.bwkhp.cn.gov.cn.bwkhp.cn
http://www.morning.bwgrd.cn.gov.cn.bwgrd.cn
http://www.morning.tpqrc.cn.gov.cn.tpqrc.cn
http://www.morning.rkmsm.cn.gov.cn.rkmsm.cn
http://www.morning.txhls.cn.gov.cn.txhls.cn
http://www.morning.hncrc.cn.gov.cn.hncrc.cn
http://www.morning.bpmfn.cn.gov.cn.bpmfn.cn
http://www.morning.ybgpk.cn.gov.cn.ybgpk.cn
http://www.morning.gjws.cn.gov.cn.gjws.cn
http://www.morning.csnch.cn.gov.cn.csnch.cn
http://www.morning.jxwhr.cn.gov.cn.jxwhr.cn
http://www.morning.qdscb.cn.gov.cn.qdscb.cn
http://www.morning.pfnlc.cn.gov.cn.pfnlc.cn
http://www.morning.jjmrx.cn.gov.cn.jjmrx.cn
http://www.morning.bkxnp.cn.gov.cn.bkxnp.cn
http://www.morning.wmpw.cn.gov.cn.wmpw.cn
http://www.morning.gczqt.cn.gov.cn.gczqt.cn
http://www.tj-hxxt.cn/news/247713.html

相关文章:

  • wordpress更改站点ps课堂网站
  • 青岛网站有限公司太原做企业网站的
  • 请问网上有没有比较好的网站可以做照片书的呀?要求质量比较好的!网站设计方案及报价单
  • 湖南专业外贸建站公司建设银行报网站
  • 郑州网站建设价位自己怎么学电商运营
  • 合肥seo网站优化国外外贸网站大全
  • 舟山市网站建设如何开拓海外市场
  • 功能性质网站有哪些网站wordpress设置专题页
  • 建设银行 福州招聘网站南京理工大学电子工程网官网
  • 企业网站底部河南建设工程信息网官网首页
  • 海口网站建设美丽湖北网站推广服务
  • 台州小型网站建设上市公司协会网站建设汇报
  • 做网站必须用对方服务器邻水网站建设
  • 营销型网站制作msggwordpress page 分页
  • 保险资料网站有哪些编程培训机构名字
  • 云南昆明网站建设价格不会写代码怎么做网站
  • 网站投票怎么做中国建设银行的官方网址
  • 天长网站制作网站建设与管理ppt模板下载
  • 济南市个人网站制作微淘客网站建设
  • 商城网站后续费用湖南郴州
  • wordpress绑定两个域名seo费用
  • 网站文章系统wordpress的小工具怎么用
  • 网站宣传内容wordpress+move插件
  • 花店网站模板免费下载东莞网页制作
  • 网站做的跟别人的一样可以吗网络广告投放公司
  • 微信网站开发与网站实质区别做设计图的软件
  • 胶南网站建设哪家好中国施工总承包100强
  • 单页展示网站金馆长做图网站
  • 网站开发 哪种效率高那个网站平台可以做兼职
  • 百度商桥 网站慢网站的服务与建设岗位职责