当前位置: 首页 > news >正文

长沙市建设网站网销培训

长沙市建设网站,网销培训,北京集团公司网站建设,宣传推广的形式有哪些论文地址-TPA-LSTM论文地址 项目地址- TPA-LSTM时间序列预测实战案例 本文介绍 本文通过实战案例讲解TPA-LSTM实现多元时间序列预测#xff0c;在本文中所提到的TPA和LSTM分别是注意力机制和深度学习模型,通过将其结合到一起实现时间序列的预测#xff0c;本文利用… 论文地址-TPA-LSTM论文地址 项目地址- TPA-LSTM时间序列预测实战案例 本文介绍 本文通过实战案例讲解TPA-LSTM实现多元时间序列预测在本文中所提到的TPA和LSTM分别是注意力机制和深度学习模型,通过将其结合到一起实现时间序列的预测本文利用有关油温的数据集来进行训练模型同时将模型保存到本地进行加载实现多步长预测本文所利用的数据集也可以替换成你个人的数据集来进行预测(修改个人的数据集的地方本文也进行了标注)同时本文会对TPA和LSTM分别进行概念的讲解帮助大家理解其中的运行机制原理(包括个人总结已经论文内容)。 LSTM介绍 在开始实战讲解之前先来简单理解一下LSTM其原理在我的另一篇博客中已经详细的讲解过了这里只是简单的回顾如果大家想要更深入的理解可以观看我的另一篇博客地址如下-时间序列预测模型实战案例(三)(LSTM)(Python)(深度学习)时间序列预测(包括运行代码以及代码讲解) LSTM的概念  LSTM长短期记忆Long Short-Term Memory是一种用于处理序列数据的深度学习模型属于循环神经网络RNN的一种变体,其使用一种类似于搭桥术结构的RNN单元。相对于普通的RNNLSTM引入了门控机制能够更有效地处理长期依赖和短期记忆问题是RNN网络中最常使用的Cell之一LSTM的网络结构图如下图所示。 TPA机制介绍 本文主要介绍的是TPA注意力机制LSTM在之前的文章中已经介绍过了下面先来介绍一下其工作原理。 TPA的概念 TPATemporal Pattern Attention注意力机制是一种用于处理时间序列数据的注意力机制。它的工作原理是在传统的注意力机制的基础上引入了时间模式的概念以更好地捕捉时间序列中的重要模式和特征。 TPA的的工作步骤 TPA注意力机制的主要步骤如下 1. 输入数据准备给定一个时间序列数据将其表示为X {x1, x2, ..., xt}其中xi表示时间i处的观测值。 2. 特征提取通过使用卷积神经网络从时间序列中提取特征。这些特征可以是局部模式、全局趋势等。 3. 时间模式编码将提取的特征序列传递给时间模式编码器。时间模式编码器通过学习时间序列中的重要模式和特征生成一个编码向量序列。 4. 注意力计算在时间模式编码器的输出上应用注意力机制。传统的注意力机制计算注意力权重用于选择与当前时间步相关的信息。而TPA注意力机制通过计算注意力权重选择与当前时间步相关的重要时间模式。 5. 上下文向量生成根据注意力权重和时间模式编码器的输出计算上下文向量。上下文向量是根据选择的重要时间模式加权求和的结果。 6. 预测生成将上下文向量与其他信息例如隐藏状态进行拼接然后通过适当的操作如矩阵乘法生成最终的预测结果。 如果大家觉得文字的描述不够直观我们来看下图通过分析图片的形式来理解其工作原理。 上图显示了TPA注意力机制从输入到输出的过程工作流程其中表示时间步处RNN的隐藏状态。有个长度为的(注意是1维的并不像图像处理的2维或三维)滤波器用不同颜色的矩形表示。然后每个滤波器在个隐藏状态特征上进行卷积并生成一个具有行和列的矩阵。接下来评分函数通过与当前隐藏状态ht进行比较为的每一行计算一个权重。然后权重进行归一化的行按照对应的权重进行加权求和生成。最后我们将、进行拼接并进行矩阵乘法生成用于创建最终的预测值。  个人总结-TPA注意力机制的关键创新点在于引入了时间模式编码和基于时间模式的注意力计算。这使得模型能够更好地理解和捕捉时间序列数据中的重要模式和特征从而提高预测性能。  实战讲解 讲过上文中的简单介绍大家对于LSTM和TPA机制应该有了一个简单的了解本文是实战案例讲解主要部分还是代码部分的应用所以下面来进行实战案例的讲解。 项目结构构成  先来看一下我们的文件目录结构构成。 其中main.py文件为程序入口dataset.py文件为数据处理的一些操作tpa-lstm.pyp文件定义了我们的模型结构util.py为定义的一些工具包,checkpoints为模型文件的保存文件夹ETTh1.csv文件为数据集。  项目完整代码 为了方便讲解我把上面提到的几个代码先放到这里文章的开头已经提供下载地址给大家了如果大家不愿意下载可以按照项目结构构成复制即可。 main.py文件如下 import lightning.pytorch as pl import matplotlib.pyplot as plt import pandas as pd from lightning.pytorch.callbacks import ModelCheckpoint from dataset import ElectricityDataModule from tpa_lstm import TPALSTMdata_df pd.read_csv(ETTh1.csv, index_col[date]) num_features data_df.shape[1]data_splits {train: 0.7,val: 0.15,predict: 0.15 }pred_horizon 4elec_dm ElectricityDataModule(dataset_splitsdata_splits,batch_size128,window_size24,pred_horizonpred_horizon,data_stylecustom )run_name f{pred_horizon}ts-kbest30hid_size 64 n_layers 1 num_filters 3name f{run_name}-TPA-LSTM checkpoint_loss_tpalstm ModelCheckpoint(dirpathfcheckpoints/{run_name}/TPA-LSTM,filenamename,save_top_k1,monitorval/loss,modemin )tpalstm_trainer pl.Trainer(max_epochs10,# acceleratorgpu,callbacks[checkpoint_loss_tpalstm],strategyauto,devices1,# loggerwandb_logger_tpalstm )tpa_lstm TPALSTM(input_sizenum_features,hidden_sizehid_size,output_horizonpred_horizon,num_filtersnum_filters,obs_len24,n_layersn_layers,lr1e-3 )tpalstm_trainer.fit(tpa_lstm, elec_dm)elec_dm.setup(predict) run_to_load run_name model_path fcheckpoints/{run_to_load}/TPA-LSTM/{name}.ckpt tpa_lstm TPALSTM.load_from_checkpoint(model_path)pred_dl elec_dm.predict_dataloader() y_pred tpalstm_trainer.predict(tpa_lstm, pred_dl)batch_idx 0 start 0 end 5 for i, batch in enumerate(pred_dl):if start i end:inputs, labels batchX, ytrue inputs[batch_idx][:, -1], labels[batch_idx].squeeze()ypred y_pred[i][batch_idx].squeeze()X X.cpu().numpy()ytrue ytrue.cpu().numpy()ypred ypred.cpu().numpy()plt.figure(figsize(8, 4))plt.plot(range(0, 24), X, labelInput)plt.scatter(range(24, 24 pred_horizon), ytrue, colorcornflowerblue, labelTrue-Value)plt.scatter(range(24, 24 pred_horizon), ypred, markerx, colorgreen, labelTPA-LSTM pred)plt.legend(loclower left)plt.savefig(preds)plt.show()elif i end:breakdataset.py文件如下 - import math import pandas as pd import torch from torch.utils.data import Dataset, DataLoader import lightning.pytorch as plclass ElectricityDataset(Dataset):def __init__(self,mode,split_ratios,window_size,pred_horizon,data_style,):self.w_size window_sizeself.pred_horizon pred_horizonif data_style pca:self.raw_dataset pd.read_csv(ETTh1.csv,index_col[date])elif data_style kbest:self.raw_dataset pd.read_csv(ETTh1.csv,index_col[date])elif data_style custom:self.raw_dataset pd.read_csv(ETTh1.csv,index_col[date])else:print(Invalid dataset type)self.raw_dataset Noneself.train_frac split_ratios[train]self.val_frac split_ratios[val]self.test_frac split_ratios[predict]self.train_lim math.floor(self.train_frac * self.raw_dataset.shape[0]) self.val_lim math.floor(self.val_frac * self.raw_dataset.shape[0]) self.train_limif mode train:self.dataset self.raw_dataset[:self.train_lim]if mode val:self.dataset self.raw_dataset[self.train_lim:self.val_lim]if mode predict:self.dataset self.raw_dataset[self.val_lim:]self.device torch.device(cuda:0 if torch.cuda.is_available() else cpu)data_array self.dataset.values # self.X torch.tensor(self.dataset[:, :-1], dtypetorch.float32).to(self.device)self.X torch.tensor(data_array, dtypetorch.float32).to(self.device)self.y torch.tensor(data_array[:, -1], dtypetorch.float32) \.unsqueeze(1).to(self.device)def __getitem__(self, idx):return (self.X[idx:idx self.w_size, :], self.y[idx self.w_size: idx self.w_size self.pred_horizon])def __len__(self):# TODO Check this is correctreturn len(self.dataset) - (self.w_size self.pred_horizon)def get_input_size(self):return self.dataset.shape[1]class ElectricityDataModule(pl.LightningDataModule):def __init__(self,dataset_splits,batch_size64,window_size24,pred_horizon1,data_stylepca):super().__init__()self.batch_size batch_sizeself.dataset_splits dataset_splitsself.window_size window_sizeself.pred_horizon pred_horizonself.data_styledata_styledef setup(self, stage):if stage fit:self.data_train ElectricityDataset(modetrain,split_ratiosself.dataset_splits,window_sizeself.window_size,pred_horizonself.pred_horizon,data_styleself.data_style)self.data_val ElectricityDataset(modeval,split_ratiosself.dataset_splits,window_sizeself.window_size,pred_horizonself.pred_horizon,data_styleself.data_style)elif stage predict:self.data_pred ElectricityDataset(modepredict,split_ratiosself.dataset_splits,window_sizeself.window_size,pred_horizonself.pred_horizon,data_styleself.data_style)def train_dataloader(self):return DataLoader(self.data_train, batch_sizeself.batch_size, shuffleFalse)def val_dataloader(self):return DataLoader(self.data_val, batch_sizeself.batch_size, shuffleFalse)def predict_dataloader(self):return DataLoader(self.data_pred, batch_sizeself.batch_size, shuffleFalse)tpa_lstm.py文件如下-  import torch from torch import nn, optim import lightning.pytorch as plfrom util import RMSE, RSE, CORRdevice torch.device(cuda:0 if torch.cuda.is_available() else cpu)class TPALSTM(pl.LightningModule):def __init__(self, input_size, output_horizon, num_filters, hidden_size, obs_len, n_layers, lr1e-3):super(TPALSTM, self).__init__()self.hidden nn.Linear(input_size, 24)self.relu nn.ReLU()self.lstm nn.LSTM(input_size, hidden_size, n_layers, \biasTrue, batch_firstTrue) # output (batch_size, obs_len, hidden_size)self.hidden_size hidden_sizeself.filter_num num_filtersself.filter_size 1 # Dont change this - otherwise CNN filters no longer 1Dself.output_horizon output_horizonself.attention TemporalPatternAttention(self.filter_size, \self.filter_num, obs_len - 1, hidden_size)self.mlp_out nn.Sequential(nn.Linear(hidden_size, hidden_size // 2),self.relu,nn.Dropout(p0.2),nn.Linear(hidden_size // 2, output_horizon))self.linear nn.Linear(hidden_size, output_horizon)self.n_layers n_layersself.lr lrself.criterion nn.MSELoss()self.save_hyperparameters()def forward(self, x):batch_size, obs_len, f_dim x.size()H torch.zeros(batch_size, obs_len - 1, self.hidden_size).to(device)ht torch.zeros(self.n_layers, batch_size, self.hidden_size).to(device)ct ht.clone()for t in range(obs_len):xt x[:, t, :].view(batch_size, 1, -1)out, (ht, ct) self.lstm(xt, (ht, ct))htt ht.permute(1, 0, 2)htt htt[:, -1, :]if t ! obs_len - 1:H[:, t, :] httH self.relu(H)# reshape hidden states HH H.view(-1, 1, obs_len - 1, self.hidden_size)new_ht self.attention(H, htt)ypred self.linear(new_ht).unsqueeze(-1) # ypred self.mlp_out(new_ht).unsqueeze(-1)return ypreddef training_step(self, batch, batch_idx):inputs, label batch outputs self.forward(inputs)loss self.criterion(outputs, label)corr CORR(outputs, label)rse RSE(outputs, label)self.log(train/loss, loss, prog_barTrue, on_epochTrue, on_stepFalse)self.log(train/corr, corr, prog_barTrue, on_epochTrue, on_stepFalse)self.log(train/rse, rse, prog_barTrue, on_epochTrue, on_stepFalse)return lossdef validation_step(self, batch, batch_idx):inputs, label batch outputs self.forward(inputs)loss self.criterion(outputs, label)corr CORR(outputs, label)rse RSE(outputs, label)self.log(val/loss, loss, prog_barTrue, on_epochTrue, on_stepFalse)self.log(val/corr, corr, prog_barTrue, on_epochTrue, on_stepFalse)self.log(val/rse, rse, prog_barTrue, on_epochTrue, on_stepFalse)def predict_step(self, batch, batch_idx):inputs, label batch pred self.forward(inputs)return preddef configure_optimizers(self):optimiser optim.Adam(self.parameters(),lrself.lr,amsgradFalse, # weight_decay1e-4,)return optimiserclass TemporalPatternAttention(nn.Module):def __init__(self, filter_size, filter_num, attn_len, attn_size):super(TemporalPatternAttention, self).__init__()self.filter_size filter_sizeself.filter_num filter_numself.feat_size attn_size - self.filter_size 1self.conv nn.Conv2d(1, filter_num, (attn_len, filter_size))self.linear1 nn.Linear(attn_size, filter_num)self.linear2 nn.Linear(attn_size self.filter_num, attn_size)self.relu nn.ReLU()def forward(self, H, ht):_, channels, _, attn_size H.size()new_ht ht.view(-1, 1, attn_size)w self.linear1(new_ht) # batch_size, 1, filter_numconv_vecs self.conv(H)conv_vecs conv_vecs.view(-1, self.feat_size, self.filter_num)conv_vecs self.relu(conv_vecs)# score functionw w.expand(-1, self.feat_size, self.filter_num)s torch.mul(conv_vecs, w).sum(dim2)alpha torch.sigmoid(s)new_alpha alpha.view(-1, self.feat_size, 1).expand(-1, self.feat_size, self.filter_num)v torch.mul(new_alpha, conv_vecs).sum(dim1).view(-1, self.filter_num)concat torch.cat([ht, v], dim1)new_ht self.linear2(concat)return new_htutil.py文件如下-  #!/usr/bin/python 3.6 #-*-coding:utf-8-*- Utility functionsimport torch import numpy as np import os import randomdef get_data_path():folder os.path.dirname(__file__)return os.path.join(folder, data)def RSE(ypred, ytrue):if isinstance(ypred, np.ndarray):rse np.sqrt(np.square(ypred - ytrue).sum()) / \np.sqrt(np.square(ytrue - ytrue.mean()).sum())else:rse torch.sqrt(torch.square(ypred - ytrue).sum()) / \torch.sqrt(torch.square(ytrue - ytrue.mean()).sum())return rsedef RMSE(ypred, ytrue):return torch.sqrt(torch.mean(torch.sum(torch.square(ypred - ytrue), dim1)))def CORR(ypred, ytrue):if isinstance(ypred, np.ndarray):vx ypred - np.mean(ypred)vy ytrue - np.mean(ytrue)return np.sum(vx * vy) / (np.sqrt(np.sum(vx ** 2)) * np.sqrt(np.sum(vy ** 2)))else:vx ypred - torch.mean(ypred)vy ytrue - torch.mean(ytrue)return torch.sum(vx * vy) / (torch.sqrt(torch.sum(vx ** 2)) * torch.sqrt(torch.sum(vy ** 2)))def quantile_loss(ytrue, ypred, qs):Quantile loss version 2Args:ytrue (batch_size, output_horizon)ypred (batch_size, output_horizon, num_quantiles)L np.zeros_like(ytrue)for i, q in enumerate(qs):yq ypred[:, :, i]diff yq - ytrueL np.max(q * diff, (q - 1) * diff)return L.mean()def SMAPE(ytrue, ypred):ytrue np.array(ytrue).ravel()ypred np.array(ypred).ravel() 1e-4mean_y (ytrue ypred) / 2.return np.mean(np.abs((ytrue - ypred) \/ mean_y))def MAPE(ytrue, ypred):ytrue np.array(ytrue).ravel() 1e-4ypred np.array(ypred).ravel()return np.mean(np.abs((ytrue - ypred) \/ ytrue))def train_test_split(X, y, train_ratio0.7):num_ts, num_periods, num_features X.shapetrain_periods int(num_periods * train_ratio)random.seed(2)Xtr X[:, :train_periods, :]ytr y[:, :train_periods]Xte X[:, train_periods:, :]yte y[:, train_periods:]return Xtr, ytr, Xte, yteclass StandardScaler:def fit_transform(self, y):self.mean np.mean(y)self.std np.std(y) 1e-4return (y - self.mean) / self.stddef inverse_transform(self, y):return y * self.std self.meandef transform(self, y):return (y - self.mean) / self.stdclass MaxScaler:def fit_transform(self, y):self.max np.max(y)return y / self.maxdef inverse_transform(self, y):return y * self.maxdef transform(self, y):return y / self.maxclass MeanScaler:def fit_transform(self, y):self.mean np.mean(y)return y / self.meandef inverse_transform(self, y):return y * self.meandef transform(self, y):return y / self.meanclass LogScaler:def fit_transform(self, y):return np.log1p(y)def inverse_transform(self, y):return np.expm1(y)def transform(self, y):return np.log1p(y)def gaussian_likelihood_loss(z, mu, sigma):Gaussian Liklihood LossArgs:z (tensor): true observations, shape (num_ts, num_periods)mu (tensor): mean, shape (num_ts, num_periods)sigma (tensor): standard deviation, shape (num_ts, num_periods)likelihood: (2 pi sigma^2)^(-1/2) exp(-(z - mu)^2 / (2 sigma^2))log likelihood:-1/2 * (log (2 pi) 2 * log (sigma)) - (z - mu)^2 / (2 sigma^2)negative_likelihood torch.log(sigma 1) (z - mu) ** 2 / (2 * sigma ** 2) 6return negative_likelihood.mean()def negative_binomial_loss(ytrue, mu, alpha):Negative Binomial SampleArgs:ytrue (array like)mu (array like)alpha (array like)maximuze log l_{nb} log Gamma(z 1/alpha) - log Gamma(z 1) - log Gamma(1 / alpha)- 1 / alpha * log (1 alpha * mu) z * log (alpha * mu / (1 alpha * mu))minimize loss - log l_{nb}Note: torch.lgamma: log Gamma functionbatch_size, seq_len ytrue.size()likelihood torch.lgamma(ytrue 1. / alpha) - torch.lgamma(ytrue 1) - torch.lgamma(1. / alpha) \- 1. / alpha * torch.log(1 alpha * mu) \ ytrue * torch.log(alpha * mu / (1 alpha * mu))return - likelihood.mean()def batch_generator(X, y, num_obs_to_train, seq_len, batch_size):Args:X (array like): shape (num_samples, num_features, num_periods)y (array like): shape (num_samples, num_periods)num_obs_to_train (int):seq_len (int): sequence/encoder/decoder lengthbatch_size (int)num_ts, num_periods, _ X.shapeif num_ts batch_size:batch_size num_tst random.choice(range(num_obs_to_train, num_periods-seq_len))batch random.sample(range(num_ts), batch_size)X_train_batch X[batch, t-num_obs_to_train:t, :]y_train_batch y[batch, t-num_obs_to_train:t]Xf X[batch, t:tseq_len]yf y[batch, t:tseq_len]return X_train_batch, y_train_batch, Xf, yf 项目网络结构 本项目的网络结构图如下所示在控制台输出了大家如果想要修改可以在其中的对应的位置添加或删除都可以。 ​ 代码讲解 训练部分 我们首先来看main.py文件我也只会讲解这一个文件(因为代码很多如果大家有需要我后期会出视频带着大家过一遍其中的代码) main.py文件的内容不是很多首先最上面的模块导入部分我不讲解了前面有我应用的版本大家如果有一些版本报错的话可以参考。 data_df pd.read_csv(ETTh1.csv, index_col[date]) num_features data_df.shape[1] 这两行代码就是数据的读取操作以及获取数据的特征数因为我们是多元预测数据肯定不只一列所以我们要告诉模型我们的输入有多少列模型好做多少列的预测。 data_splits {train: 0.7,val: 0.15,predict: 0.15 }这几行是数据集的一个划分大家应该都明白。这里训练集划分为模型的0.7、验证集为0.15、测试集为0.15。 pred_horizon 4这个参数就是你预测未来数据的长度假设你数据集的时间是按照小时来划分那么如果输入4就是未来四小时的一个情况。  elec_dm ElectricityDataModule(dataset_splitsdata_splits,batch_size128,window_size24,pred_horizonpred_horizon,data_stylecustom ) 这个部分是一个数据加载器定义的一个过程其中我们的data_splits上面讲过了batch_size就是你往模型里面一次输入的数据长度window_size是你用多少条数据预测未来一条数据pred_horizon上面也讲过了custom是你数据加载器定义的形式这里大家不用理会。  hid_size 64 n_layers 1 num_filters 3 这三个参数是定义模型的参数其中hid_size是隐藏层的单元数如果不理解可以看前面提到的LSTM讲解博客n_layers是其中LSTM的层数num_filters是TPA注意力机制中卷积的一个形状。  name f{run_name}-TPA-LSTM checkpoint_loss_tpalstm ModelCheckpoint(dirpathfcheckpoints/{run_name}/TPA-LSTM,filenamename,save_top_k1,monitorval/loss,modemin ) 这一部分是模型保存部分不进行讲解了大家有兴趣可以自己debug看看就是保存模型文件。 tpalstm_trainer pl.Trainer(max_epochs10,# acceleratorgpu,callbacks[checkpoint_loss_tpalstm],strategyauto,devices1,# loggerwandb_logger_tpalstm ) 这一部分定义了一些训练中的参数其中max_epochs就是训练10轮的意思。 tpa_lstm TPALSTM(input_sizenum_features,hidden_sizehid_size,output_horizonpred_horizon,num_filtersnum_filters,obs_len24,n_layersn_layers,lr1e-3 ) 这一部分就是定义的一些参数前面定义的全部输入到模型里面。 tpalstm_trainer.fit(tpa_lstm, elec_dm) 这个就是模型训练的操作执行到这里模型就开始训练了。  预测部分  上一小节讲解的是训练的过程现在开始详解预测的过程代码也是在main.py文件中。 elec_dm.setup(predict) run_to_load run_name model_path fcheckpoints/{run_to_load}/TPA-LSTM/{name}.ckpt tpa_lstm TPALSTM.load_from_checkpoint(model_path) 我们先选择预测模式然后下载上一小节训练的模型 pred_dl elec_dm.predict_dataloader() y_pred tpalstm_trainer.predict(tpa_lstm, pred_dl) 这一部分就是进行预测其中第一行为数据加载器如果大家感兴趣可以看看dataset.py文件其中有注释。然后我们调用了前面加载的模型其中的predict方法进行预测 运行之后我们的预测结果就保存到了y_pred中了已经。 结果分析  batch_idx 0 start 0 end 5 for i, batch in enumerate(pred_dl):if start i end:inputs, labels batchX, ytrue inputs[batch_idx][:, -1], labels[batch_idx].squeeze()ypred y_pred[i][batch_idx].squeeze()X X.cpu().numpy()ytrue ytrue.cpu().numpy()ypred ypred.cpu().numpy()plt.figure(figsize(8, 4))plt.plot(range(0, 24), X, labelInput)plt.scatter(range(24, 24 pred_horizon), ytrue, colorcornflowerblue, labelTrue-Value)plt.scatter(range(24, 24 pred_horizon), ypred, markerx, colorgreen, labelTPA-LSTM pred)plt.legend(loclower left)plt.savefig(preds)plt.show()elif i end:break 这一部分就是画图功能了最后我们预测结果全部会以图片的形式输出出来因为我输入的数据形状是7列这里就生成了七张图片如下所示- ​ 总结 到此本文就全部讲解结束了希望能够帮助大家最后推荐几篇我的其它时间序列实战案例 其它时间序列预测模型的讲解 时间序列预测模型实战案例(六)深入理解机器学习ARIMA包括差分和相关性分析 时间序列预测模型实战案例(五)基于双向LSTM横向搭配单向LSTM进行回归问题解决 时间序列预测模型实战案例(四)(Xgboost)(Python)(机器学习)图解机制原理实现时间序列预测和分类(附一键运行代码资源下载和代码讲解) 时间序列预测模型实战案例(三)(LSTM)(Python)(深度学习)时间序列预测(包括运行代码以及代码讲解) 【全网首发】(MTS-Mixers)(Python)(Pytorch)最新由华为发布的时间序列预测模型实战案例(一)(包括代码讲解)实现企业级预测精度包括官方代码BUG修复Transform模型 时间序列预测模型实战案例(二)(Holt-Winter)(Python)结合K-折交叉验证进行时间序列预测实现企业级预测精度(包括运行代码以及代码讲解) 如果大家有不懂的也可以评论区留言一些报错什么的大家可以讨论讨论看到我也会给大家解答如何解决
文章转载自:
http://www.morning.jhrkm.cn.gov.cn.jhrkm.cn
http://www.morning.gkgr.cn.gov.cn.gkgr.cn
http://www.morning.kvzvoew.cn.gov.cn.kvzvoew.cn
http://www.morning.nxstj.cn.gov.cn.nxstj.cn
http://www.morning.gzttoyp.com.gov.cn.gzttoyp.com
http://www.morning.kwblwbl.cn.gov.cn.kwblwbl.cn
http://www.morning.nyhtf.cn.gov.cn.nyhtf.cn
http://www.morning.dbddm.cn.gov.cn.dbddm.cn
http://www.morning.xkyqq.cn.gov.cn.xkyqq.cn
http://www.morning.rqqct.cn.gov.cn.rqqct.cn
http://www.morning.rydbs.cn.gov.cn.rydbs.cn
http://www.morning.kpzrf.cn.gov.cn.kpzrf.cn
http://www.morning.nlbhj.cn.gov.cn.nlbhj.cn
http://www.morning.gagapp.cn.gov.cn.gagapp.cn
http://www.morning.bchgl.cn.gov.cn.bchgl.cn
http://www.morning.hqgkx.cn.gov.cn.hqgkx.cn
http://www.morning.gglhj.cn.gov.cn.gglhj.cn
http://www.morning.mfrb.cn.gov.cn.mfrb.cn
http://www.morning.kmbgl.cn.gov.cn.kmbgl.cn
http://www.morning.rmlz.cn.gov.cn.rmlz.cn
http://www.morning.dqgbx.cn.gov.cn.dqgbx.cn
http://www.morning.ryxyz.cn.gov.cn.ryxyz.cn
http://www.morning.bzqnp.cn.gov.cn.bzqnp.cn
http://www.morning.mprtj.cn.gov.cn.mprtj.cn
http://www.morning.fyxr.cn.gov.cn.fyxr.cn
http://www.morning.ryxbz.cn.gov.cn.ryxbz.cn
http://www.morning.dsncg.cn.gov.cn.dsncg.cn
http://www.morning.dmjhp.cn.gov.cn.dmjhp.cn
http://www.morning.pmsl.cn.gov.cn.pmsl.cn
http://www.morning.pjxw.cn.gov.cn.pjxw.cn
http://www.morning.qnzk.cn.gov.cn.qnzk.cn
http://www.morning.zdwjg.cn.gov.cn.zdwjg.cn
http://www.morning.ttshf.cn.gov.cn.ttshf.cn
http://www.morning.rhfbl.cn.gov.cn.rhfbl.cn
http://www.morning.blqsr.cn.gov.cn.blqsr.cn
http://www.morning.smj79.cn.gov.cn.smj79.cn
http://www.morning.nd-test.com.gov.cn.nd-test.com
http://www.morning.wgzgr.cn.gov.cn.wgzgr.cn
http://www.morning.jnrry.cn.gov.cn.jnrry.cn
http://www.morning.rntby.cn.gov.cn.rntby.cn
http://www.morning.jntdf.cn.gov.cn.jntdf.cn
http://www.morning.kxqfz.cn.gov.cn.kxqfz.cn
http://www.morning.zrbpx.cn.gov.cn.zrbpx.cn
http://www.morning.rlrxh.cn.gov.cn.rlrxh.cn
http://www.morning.jfnbh.cn.gov.cn.jfnbh.cn
http://www.morning.xfwnk.cn.gov.cn.xfwnk.cn
http://www.morning.rlkgc.cn.gov.cn.rlkgc.cn
http://www.morning.bchgl.cn.gov.cn.bchgl.cn
http://www.morning.chhhq.cn.gov.cn.chhhq.cn
http://www.morning.ylqb8.cn.gov.cn.ylqb8.cn
http://www.morning.knmby.cn.gov.cn.knmby.cn
http://www.morning.nkrmh.cn.gov.cn.nkrmh.cn
http://www.morning.fbpdp.cn.gov.cn.fbpdp.cn
http://www.morning.yrkdq.cn.gov.cn.yrkdq.cn
http://www.morning.ppqzb.cn.gov.cn.ppqzb.cn
http://www.morning.kqgsn.cn.gov.cn.kqgsn.cn
http://www.morning.rdzlh.cn.gov.cn.rdzlh.cn
http://www.morning.gwqq.cn.gov.cn.gwqq.cn
http://www.morning.pfcrq.cn.gov.cn.pfcrq.cn
http://www.morning.qjsxf.cn.gov.cn.qjsxf.cn
http://www.morning.rshkh.cn.gov.cn.rshkh.cn
http://www.morning.ypbp.cn.gov.cn.ypbp.cn
http://www.morning.jxcwn.cn.gov.cn.jxcwn.cn
http://www.morning.bkgfp.cn.gov.cn.bkgfp.cn
http://www.morning.rlwgn.cn.gov.cn.rlwgn.cn
http://www.morning.pbtdr.cn.gov.cn.pbtdr.cn
http://www.morning.gxhqt.cn.gov.cn.gxhqt.cn
http://www.morning.hhqtq.cn.gov.cn.hhqtq.cn
http://www.morning.nhzxr.cn.gov.cn.nhzxr.cn
http://www.morning.gtwtk.cn.gov.cn.gtwtk.cn
http://www.morning.mmzfl.cn.gov.cn.mmzfl.cn
http://www.morning.tpkxs.cn.gov.cn.tpkxs.cn
http://www.morning.jxfsm.cn.gov.cn.jxfsm.cn
http://www.morning.mcjp.cn.gov.cn.mcjp.cn
http://www.morning.yrkdq.cn.gov.cn.yrkdq.cn
http://www.morning.mbpzw.cn.gov.cn.mbpzw.cn
http://www.morning.xctdn.cn.gov.cn.xctdn.cn
http://www.morning.mmkrd.cn.gov.cn.mmkrd.cn
http://www.morning.syynx.cn.gov.cn.syynx.cn
http://www.morning.wsgyq.cn.gov.cn.wsgyq.cn
http://www.tj-hxxt.cn/news/238070.html

相关文章:

  • 广告公司网站设计方案青岛正规品牌网站制作策划
  • 网站建设工作量评估怎么查网站是哪个建站公司做的
  • 推荐购物网站建设加快网站访问速度
  • 中国建设银行网站无法访问制作app的教程
  • 电子商务网站建设的方法有哪些百度快照优化排名推广
  • 旅游网站htmlvi设计流程
  • 公交车网站怎么做留言板如何做网站安全扫描
  • 周口 网站建设商务网站规划与设计实训报告
  • 邯郸网站建设推荐驰捷网络公司北京百度关键词优化
  • 三个字广告公司名称网站优化主要优化哪些地方
  • 行业排名查询网站厦门网站建设哪家强
  • 做美容仪器的网站网站开发 模块化
  • 仓储物流网站建设重庆建设工程招标投标交易信息网
  • 北京做网站建设公司排名网页策划案的范文
  • ppt做长图网站网站代码快捷键
  • 定制网站和模板网站有何区别给网站做优化怎么做
  • 衡水seo_衡水网站建设-燕丰收阿里云做的网站空间
  • 企业建站的费用全网营销型网站建设
  • 网站ip地址 转向域名宁波外贸网站设计公司
  • 手机微网站 模板机械企业网站模板 蓝色大气 dede织梦企业模板
  • 公司网站维护工作WordPress表情包插件
  • 重庆江津网站建设个人网页制作模板下载
  • 网站首页 flash画册宣传册设计样本
  • 中国建设银行网站 个人客户服装网站建设费用预算
  • 西安网站建设查派网站的优化方案
  • 厦门集团网站设计公司制作网站注册页面
  • 怎么做ps4的视频网站苏州网站建设排行
  • 网站空白页黑链dw做的网站要多大
  • 手机网站二级导航菜单中国交建招标平台
  • 怎么做刷东西的网站金融类网站设计欣赏