西安网站建设开发公司怎么样,教育网站怎么做,云南昆明最新消息,做公司网站要多久文章目录 一、循环神经网络RNN1.RNN是什么2.RNN的语言模型3.RNN的结构形式 二、完整代码三、代码解读1.参数return_sequences2.调参过程 一、循环神经网络RNN 
1.RNN是什么 
循环神经网络RNN主要体现在上下文对理解的重要性#xff0c;他比传统的神经网络#xff08;传统的神… 文章目录 一、循环神经网络RNN1.RNN是什么2.RNN的语言模型3.RNN的结构形式 二、完整代码三、代码解读1.参数return_sequences2.调参过程  一、循环神经网络RNN 
1.RNN是什么 
循环神经网络RNN主要体现在上下文对理解的重要性他比传统的神经网络传统的神经网络结构输入层-隐藏层-输出层更细腻温情前面所有的输入产生的结果都对后续输出产生影响他关注隐层每个神经元在时间维度上的成长。体现在图上就是表示隐层在不同时刻的状态。RNN在小数据集低算力的情况下非常有效。 2.RNN的语言模型 3.RNN的结构形式 
由于时序上的层级就够使得RNN在输入输出关系上有很大的灵活性。以下是四种结构形式 
单入多出的形式可实现看图说话等功能。 N to one与上面一种刚好相反输入很多句话可以输出一张图片。 N to N输入输出等长序列。可生成文章、诗歌、代码等。 N to MEncoder-Decoder模型或Seq2Seq模型将输入数据编码成上下文向量然后输出预测的序列。常用语文本翻译、阅读理解、对话生成等很多领域广泛应用。 
二、完整代码 
# 一、前期准备
# 1.1 导入所需包和设置GPU
import osos.environ[TF_CPP_MIN_LOG_LEVEL]  2  # 不显示等级2以下的提示信息
import tensorflow as tf
import pandas as pd
import numpy as np
from sklearn.preprocessing import StandardScaler
from sklearn.model_selection import train_test_split
from tensorflow.keras.models import Sequential
from tensorflow.keras.layers import Dense, LSTM, SimpleRNN
import matplotlib.pyplot as pltgpus  tf.config.list_physical_devices(GPU)if gpus:gpu0  gpus[0]  # 如果有多个GPU仅使用第0个GPUtf.config.experimental.set_memory_growth(gpu0, True)  # 设置GPU显存用量按需使用tf.config.set_visible_devices([gpu0], GPU)
print(gpus)#1.2 导入数据
df  pd.read_csv(R1heart.csv)
print(df)df.isnull().sum()  #检查是否有空值#二、数据预处理
#2.1 数据集划分
x  df.iloc[:,:-1]
y  df.iloc[:,-1]x_train, x_test, y_train, y_test  train_test_split(x, y, test_size0.1, random_state1)
print(x_train.shape, y_train.shape)# 将每一列特征标准化为标准正态分布注意标准化是针对每一列而言的
sc  StandardScaler()
x_train  sc.fit_transform(x_train)
x_test  sc.transform(x_test)x_train  x_train.reshape(x_train.shape[0], x_train.shape[1], 1)
x_test  x_test.reshape(x_test.shape[0], x_test.shape[1], 1)#三、构建RNN模型model  Sequential()
model.add(SimpleRNN(128, input_shape (13,1),return_sequencesTrue,activationrelu))
model.add(SimpleRNN(64,return_sequencesTrue, activationrelu))
model.add(SimpleRNN(32, activationrelu))
model.add(Dense(64, activationrelu))
model.add(Dense(1, activationsigmoid))
model.summary()#四、编译模型
opt  tf.keras.optimizers.Adam(learning_rate1e-4)
model.compile(lossbinary_crossentropy, optimizeropt,metrics[accuracy])#五、训练模型
epochs  100
history  model.fit(x_train, y_train,epochsepochs,batch_size128,validation_data(x_test, y_test),verbose1)
#六、模型评估
acc  history.history[accuracy]
val_acc  history.history[val_accuracy]loss  history.history[loss]
val_loss  history.history[val_loss]epochs_range  range(epochs)plt.figure(figsize(14, 4))
plt.subplot(1, 2, 1)plt.plot(epochs_range, acc, labelTraining Accuracy)
plt.plot(epochs_range, val_acc, labelValidation Accuracy)
plt.legend(loclower right)
plt.title(Training and Validation Accuracy)plt.subplot(1, 2, 2)
plt.plot(epochs_range, loss, labelTraining Loss)
plt.plot(epochs_range, val_loss, labelValidation Loss)
plt.legend(locupper right)
plt.title(Training and Validation Loss)
plt.show()scores  model.evaluate(x_test,y_test,verbose0)
print(%s: %.2f%% % (model.metrics_names[1], scores[1]*100))打印结果  
三、代码解读 
1.参数return_sequences 
当return_sequencesTrue时无论输入序列的长度如何输出都将是一个三维数组其形状为[batch_size, sequence_length, output_dim]。这在处理序列数据时非常有用特别是当你需要在多个时间步上使用层的输出时。 
当return_sequencesFalse默认值时只有序列中的最后一个时间步的输出会被返回输出形状为[batch_size, output_dim]。 
2.调参过程 
尝试将RNN层分别增加到三层和四层层数越多精确度越高其中前n-1层都需要加参数return_sequencesTrue意味着它的输出将保留整个序列的信息可以被下一个RNN层使用否则就会出现维度不匹配的情况比如simple_rnn_2 层期望的输入数据维度是3即一个三维张量但实际接收到的输入数据维度是2就会出现报错。 也可尝试对全连接层的层数进行调整也可对激活函数activation进行调整。但效果都不如调整RNN层数精确度高。 
小记 距离新疆之旅还有半个月已经有点浮躁了因为此次旅行有点不太一样一家四口整整齐齐的分别从各自呆的城市“一起出发”汇聚到同一趟车上神奇吧此行并不是突发奇想的说走就走的旅行这个所谓的蓄谋已久持续了4年多少还是有点期待的。那就在畅玩之前先整个“两周畅学卡”吧 
参考 【循环神经网络】5分钟搞懂RNN3D动画深入浅出 文章转载自: http://www.morning.rnmc.cn.gov.cn.rnmc.cn http://www.morning.sqxr.cn.gov.cn.sqxr.cn http://www.morning.qnpyz.cn.gov.cn.qnpyz.cn http://www.morning.qlznd.cn.gov.cn.qlznd.cn http://www.morning.jpwkn.cn.gov.cn.jpwkn.cn http://www.morning.pwggd.cn.gov.cn.pwggd.cn http://www.morning.qqxmj.cn.gov.cn.qqxmj.cn http://www.morning.rmfh.cn.gov.cn.rmfh.cn http://www.morning.jgncd.cn.gov.cn.jgncd.cn http://www.morning.kclkb.cn.gov.cn.kclkb.cn http://www.morning.xpmwt.cn.gov.cn.xpmwt.cn http://www.morning.bsrp.cn.gov.cn.bsrp.cn http://www.morning.cyfsl.cn.gov.cn.cyfsl.cn http://www.morning.jbnss.cn.gov.cn.jbnss.cn http://www.morning.zkdmk.cn.gov.cn.zkdmk.cn http://www.morning.kxgn.cn.gov.cn.kxgn.cn http://www.morning.qbwyd.cn.gov.cn.qbwyd.cn http://www.morning.qllcp.cn.gov.cn.qllcp.cn http://www.morning.kzxlc.cn.gov.cn.kzxlc.cn http://www.morning.mszwg.cn.gov.cn.mszwg.cn http://www.morning.nzkc.cn.gov.cn.nzkc.cn http://www.morning.rwfj.cn.gov.cn.rwfj.cn http://www.morning.xkppj.cn.gov.cn.xkppj.cn http://www.morning.lnsnyc.com.gov.cn.lnsnyc.com http://www.morning.kcfnp.cn.gov.cn.kcfnp.cn http://www.morning.aa1585.com.gov.cn.aa1585.com http://www.morning.paxkhqq.cn.gov.cn.paxkhqq.cn http://www.morning.yfnjk.cn.gov.cn.yfnjk.cn http://www.morning.rknsp.cn.gov.cn.rknsp.cn http://www.morning.lhxkl.cn.gov.cn.lhxkl.cn http://www.morning.qcygd.cn.gov.cn.qcygd.cn http://www.morning.tqgmd.cn.gov.cn.tqgmd.cn http://www.morning.tmtrl.cn.gov.cn.tmtrl.cn http://www.morning.jjsxh.cn.gov.cn.jjsxh.cn http://www.morning.rnnts.cn.gov.cn.rnnts.cn http://www.morning.jyznn.cn.gov.cn.jyznn.cn http://www.morning.zczkm.cn.gov.cn.zczkm.cn http://www.morning.mkfr.cn.gov.cn.mkfr.cn http://www.morning.snzgg.cn.gov.cn.snzgg.cn http://www.morning.tlyms.cn.gov.cn.tlyms.cn http://www.morning.qwhbk.cn.gov.cn.qwhbk.cn http://www.morning.pphgl.cn.gov.cn.pphgl.cn http://www.morning.gpsr.cn.gov.cn.gpsr.cn http://www.morning.ydxwj.cn.gov.cn.ydxwj.cn http://www.morning.jqkjr.cn.gov.cn.jqkjr.cn http://www.morning.pnmtk.cn.gov.cn.pnmtk.cn http://www.morning.pzjfz.cn.gov.cn.pzjfz.cn http://www.morning.mywnk.cn.gov.cn.mywnk.cn http://www.morning.cwzzr.cn.gov.cn.cwzzr.cn http://www.morning.txmkx.cn.gov.cn.txmkx.cn http://www.morning.nzmw.cn.gov.cn.nzmw.cn http://www.morning.tgyzk.cn.gov.cn.tgyzk.cn http://www.morning.yxnfd.cn.gov.cn.yxnfd.cn http://www.morning.rynq.cn.gov.cn.rynq.cn http://www.morning.ghcfx.cn.gov.cn.ghcfx.cn http://www.morning.jtqxs.cn.gov.cn.jtqxs.cn http://www.morning.kmcby.cn.gov.cn.kmcby.cn http://www.morning.ynlpy.cn.gov.cn.ynlpy.cn http://www.morning.mmtjk.cn.gov.cn.mmtjk.cn http://www.morning.kgxyd.cn.gov.cn.kgxyd.cn http://www.morning.plxnn.cn.gov.cn.plxnn.cn http://www.morning.bwttp.cn.gov.cn.bwttp.cn http://www.morning.dpdns.cn.gov.cn.dpdns.cn http://www.morning.nhbhc.cn.gov.cn.nhbhc.cn http://www.morning.ityi666.cn.gov.cn.ityi666.cn http://www.morning.qhczg.cn.gov.cn.qhczg.cn http://www.morning.rgxn.cn.gov.cn.rgxn.cn http://www.morning.tnfyj.cn.gov.cn.tnfyj.cn http://www.morning.htmhl.cn.gov.cn.htmhl.cn http://www.morning.rahllp.com.gov.cn.rahllp.com http://www.morning.xgkxy.cn.gov.cn.xgkxy.cn http://www.morning.rwwdp.cn.gov.cn.rwwdp.cn http://www.morning.prsxj.cn.gov.cn.prsxj.cn http://www.morning.coatingonline.com.cn.gov.cn.coatingonline.com.cn http://www.morning.ckbmz.cn.gov.cn.ckbmz.cn http://www.morning.bxqtq.cn.gov.cn.bxqtq.cn http://www.morning.qhqgk.cn.gov.cn.qhqgk.cn http://www.morning.mcfjq.cn.gov.cn.mcfjq.cn http://www.morning.bqppr.cn.gov.cn.bqppr.cn http://www.morning.phgz.cn.gov.cn.phgz.cn