当前位置: 首页 > news >正文

国外的网页制作网站wordpress查资料

国外的网页制作网站,wordpress查资料,吉林省建设厅证件查询网站,百度搜索网页版入口一、使用pytorch框架实现逻辑回归 1. 数据部分#xff1a; 首先自定义了一个简单的数据集#xff0c;特征 X 是 100 个随机样本#xff0c;每个样本一个特征#xff0c;目标值 y 基于线性关系并添加了噪声。将 numpy 数组转换为 PyTorch 张量#xff0c;方便后续在模型中…一、使用pytorch框架实现逻辑回归 1. 数据部分 首先自定义了一个简单的数据集特征 X 是 100 个随机样本每个样本一个特征目标值 y 基于线性关系并添加了噪声。将 numpy 数组转换为 PyTorch 张量方便后续在模型中使用。 2. 模型定义部分 方案 1使用 nn.Sequential 直接按顺序定义了一个线性层简洁直观。 import torch import torch.nn as nn import numpy as np from sklearn.metrics import mean_squared_error, r2_score# 自定义数据集 X np.random.rand(100, 1).astype(np.float32) y 2 * X 1 0.3 * np.random.randn(100, 1).astype(np.float32)# 转换为 PyTorch 张量 X_tensor torch.from_numpy(X) y_tensor torch.from_numpy(y)# 定义线性回归模型 model nn.Sequential(nn.Linear(1, 1) )# 定义损失函数和优化器 criterion nn.MSELoss() optimizer torch.optim.SGD(model.parameters(), lr0.01)# 训练模型 num_epochs 1000 for epoch in range(num_epochs):# 前向传播outputs model(X_tensor)loss criterion(outputs, y_tensor)# 反向传播和优化optimizer.zero_grad()loss.backward()optimizer.step()if (epoch 1) % 100 0:print(fEpoch [{epoch 1}/{num_epochs}], Loss: {loss.item():.4f})# 模型评估 with torch.no_grad():y_pred model(X_tensor).numpy()mse mean_squared_error(y, y_pred) r2 r2_score(y, y_pred) print(f均方误差 (MSE): {mse}) print(f决定系数 (R²): {r2})# 输出模型的系数和截距 print(模型系数:, model[0].weight.item()) print(模型截距:, model[0].bias.item()) 方案 2使用 nn.ModuleList 存储线性层在 forward 方法中依次调用层进行前向传播适合动态构建层序列。 import torch import torch.nn as nn import numpy as np from sklearn.metrics import mean_squared_error, r2_score# 自定义数据集 X np.random.rand(100, 1).astype(np.float32) y 2 * X 1 0.3 * np.random.randn(100, 1).astype(np.float32)# 转换为 PyTorch 张量 X_tensor torch.from_numpy(X) y_tensor torch.from_numpy(y)# 定义线性回归模型 class LinearRegression(nn.Module):def __init__(self):super(LinearRegression, self).__init__()self.layers nn.ModuleList([nn.Linear(1, 1)])def forward(self, x):for layer in self.layers:x layer(x)return xmodel LinearRegression()# 定义损失函数和优化器 criterion nn.MSELoss() optimizer torch.optim.SGD(model.parameters(), lr0.01)# 训练模型 num_epochs 1000 for epoch in range(num_epochs):# 前向传播outputs model(X_tensor)loss criterion(outputs, y_tensor)# 反向传播和优化optimizer.zero_grad()loss.backward()optimizer.step()if (epoch 1) % 100 0:print(fEpoch [{epoch 1}/{num_epochs}], Loss: {loss.item():.4f})# 模型评估 with torch.no_grad():y_pred model(X_tensor).numpy()mse mean_squared_error(y, y_pred) r2 r2_score(y, y_pred) print(f均方误差 (MSE): {mse}) print(f决定系数 (R²): {r2})# 输出模型的系数和截距 print(模型系数:, model.layers[0].weight.item()) print(模型截距:, model.layers[0].bias.item()) 方案 3使用 nn.ModuleDict 以字典形式存储层通过键名调用层适合需要对层进行命名和灵活访问的场景。 import torch import torch.nn as nn import numpy as np from sklearn.metrics import mean_squared_error, r2_score# 自定义数据集 X np.random.rand(100, 1).astype(np.float32) y 2 * X 1 0.3 * np.random.randn(100, 1).astype(np.float32)# 转换为 PyTorch 张量 X_tensor torch.from_numpy(X) y_tensor torch.from_numpy(y)# 定义线性回归模型 class LinearRegression(nn.Module):def __init__(self):super(LinearRegression, self).__init__()self.layers nn.ModuleDict({linear: nn.Linear(1, 1)})def forward(self, x):x self.layers[linear](x)return xmodel LinearRegression()# 定义损失函数和优化器 criterion nn.MSELoss() optimizer torch.optim.SGD(model.parameters(), lr0.01)# 训练模型 num_epochs 1000 for epoch in range(num_epochs):# 前向传播outputs model(X_tensor)loss criterion(outputs, y_tensor)# 反向传播和优化optimizer.zero_grad()loss.backward()optimizer.step()if (epoch 1) % 100 0:print(fEpoch [{epoch 1}/{num_epochs}], Loss: {loss.item():.4f})# 模型评估 with torch.no_grad():y_pred model(X_tensor).numpy()mse mean_squared_error(y, y_pred) r2 r2_score(y, y_pred) print(f均方误差 (MSE): {mse}) print(f决定系数 (R²): {r2})# 输出模型的系数和截距 print(模型系数:, model.layers[linear].weight.item()) print(模型截距:, model.layers[linear].bias.item()) 方案 4直接继承 nn.Module在 __init__ 方法中定义线性层在 forward 方法中实现前向传播逻辑是最常见和基础的定义模型方式。 import torch import torch.nn as nn import numpy as np from sklearn.metrics import mean_squared_error, r2_score# 自定义数据集 X np.random.rand(100, 1).astype(np.float32) y 2 * X 1 0.3 * np.random.randn(100, 1).astype(np.float32)# 转换为 PyTorch 张量 X_tensor torch.from_numpy(X) y_tensor torch.from_numpy(y)# 定义线性回归模型 class LinearRegression(nn.Module):def __init__(self):super(LinearRegression, self).__init__()self.linear nn.Linear(1, 1)def forward(self, x):return self.linear(x)model LinearRegression()# 定义损失函数和优化器 criterion nn.MSELoss() optimizer torch.optim.SGD(model.parameters(), lr0.01)# 训练模型 num_epochs 1000 for epoch in range(num_epochs):# 前向传播outputs model(X_tensor)loss criterion(outputs, y_tensor)# 反向传播和优化optimizer.zero_grad()loss.backward()optimizer.step()if (epoch 1) % 100 0:print(fEpoch [{epoch 1}/{num_epochs}], Loss: {loss.item():.4f})# 模型评估 with torch.no_grad():y_pred model(X_tensor).numpy()mse mean_squared_error(y, y_pred) r2 r2_score(y, y_pred) print(f均方误差 (MSE): {mse}) print(f决定系数 (R²): {r2})# 输出模型的系数和截距 print(模型系数:, model.linear.weight.item()) print(模型截距:, model.linear.bias.item()) 3. 训练和评估部分 定义了均方误差损失函数 nn.MSELoss 和随机梯度下降优化器 torch.optim.SGD。通过多个 epoch 进行训练每个 epoch 包含前向传播、损失计算、反向传播和参数更新。训练结束后在无梯度计算模式下进行预测并使用 scikit-learn 的指标计算均方误差和决定系数评估模型性能最后输出模型的系数和截距。 二、保存pytorch框架逻辑回归模型 在 PyTorch 中有两种常见的保存模型的方式保存模型的权重和其他参数以及保存整个模型。下面将结合一个简单的逻辑回归模型示例详细介绍这两种保存方式及对应的加载方法。 方式 1保存模型的权重和其他参数 这种方式只保存模型的状态字典state_dict它包含了模型的所有可学习参数如权重和偏置。这种方法的优点是文件体积小便于共享和迁移缺点是加载时需要先定义模型结构。 import torch import torch.nn as nn import torch.optim as optim import numpy as np# 自定义数据集 X np.random.randn(100, 2).astype(np.float32) y (2 * X[:, 0] 3 * X[:, 1] 0).astype(np.float32).reshape(-1, 1)X_tensor torch.from_numpy(X) y_tensor torch.from_numpy(y)# 定义逻辑回归模型 class LogisticRegression(nn.Module):def __init__(self, input_size):super(LogisticRegression, self).__init__()self.linear nn.Linear(input_size, 1)self.sigmoid nn.Sigmoid()def forward(self, x):out self.linear(x)out self.sigmoid(out)return out# 初始化模型 input_size 2 model LogisticRegression(input_size)# 定义损失函数和优化器 criterion nn.BCELoss() optimizer optim.SGD(model.parameters(), lr0.01)# 训练模型 num_epochs 1000 for epoch in range(num_epochs):outputs model(X_tensor)loss criterion(outputs, y_tensor)optimizer.zero_grad()loss.backward()optimizer.step()if (epoch 1) % 100 0:print(fEpoch [{epoch 1}/{num_epochs}], Loss: {loss.item():.4f})# 保存模型的权重和其他参数 torch.save(model.state_dict(), model_weights.pth)# 加载模型的权重和其他参数 loaded_model LogisticRegression(input_size) loaded_model.load_state_dict(torch.load(model_weights.pth)) loaded_model.eval()# 生成新数据进行预测 new_X np.random.randn(10, 2).astype(np.float32) new_X_tensor torch.from_numpy(new_X)with torch.no_grad():predictions loaded_model(new_X_tensor)predicted_labels (predictions 0.5).float()print(预测概率:) print(predictions.numpy()) print(预测标签:) print(predicted_labels.numpy())代码解释 模型训练首先定义并训练一个逻辑回归模型。保存模型使用 torch.save(model.state_dict(), model_weights.pth) 保存模型的状态字典到文件 model_weights.pth。加载模型先创建一个新的模型实例 loaded_model然后使用 loaded_model.load_state_dict(torch.load(model_weights.pth)) 加载保存的状态字典。预测将模型设置为评估模式生成新数据进行预测。 方式 2保存整个模型 这种方式会保存整个模型对象包括模型的结构和状态字典。优点是加载时不需要重新定义模型结构缺点是文件体积较大并且可能会受到 Python 版本和库版本的限制。 import torch import torch.nn as nn import torch.optim as optim import numpy as np# 自定义数据集 X np.random.randn(100, 2).astype(np.float32) y (2 * X[:, 0] 3 * X[:, 1] 0).astype(np.float32).reshape(-1, 1)X_tensor torch.from_numpy(X) y_tensor torch.from_numpy(y)# 定义逻辑回归模型 class LogisticRegression(nn.Module):def __init__(self, input_size):super(LogisticRegression, self).__init__()self.linear nn.Linear(input_size, 1)self.sigmoid nn.Sigmoid()def forward(self, x):out self.linear(x)out self.sigmoid(out)return out# 初始化模型 input_size 2 model LogisticRegression(input_size)# 定义损失函数和优化器 criterion nn.BCELoss() optimizer optim.SGD(model.parameters(), lr0.01)# 训练模型 num_epochs 1000 for epoch in range(num_epochs):outputs model(X_tensor)loss criterion(outputs, y_tensor)optimizer.zero_grad()loss.backward()optimizer.step()if (epoch 1) % 100 0:print(fEpoch [{epoch 1}/{num_epochs}], Loss: {loss.item():.4f})# 保存整个模型 torch.save(model, whole_model.pth)# 加载整个模型 loaded_model torch.load(whole_model.pth) loaded_model.eval()# 生成新数据进行预测 new_X np.random.randn(10, 2).astype(np.float32) new_X_tensor torch.from_numpy(new_X)with torch.no_grad():predictions loaded_model(new_X_tensor)predicted_labels (predictions 0.5).float()print(预测概率:) print(predictions.numpy()) print(预测标签:) print(predicted_labels.numpy())代码解释 模型训练同样先定义并训练逻辑回归模型。保存模型使用 torch.save(model, whole_model.pth) 保存整个模型对象到文件 whole_model.pth。加载模型使用 torch.load(whole_model.pth) 直接加载整个模型。预测将模型设置为评估模式生成新数据进行预测。 通过以上两种方式可以根据实际需求选择合适的模型保存和加载方法。 三、加载pytorch框架逻辑回归模型 以下将分别详细介绍在 PyTorch 中针对只保存模型参数和保存结构与参数这两种不同保存方式对应的模型加载方法同时给出完整的代码示例。 方式 1只保存模型参数的加载方式 当用户只保存了模型的参数即 state_dict时在加载模型时需要先定义好与原模型相同结构的模型再将保存的参数加载到该模型中。 import torch import torch.nn as nn import torch.optim as optim import numpy as np# 自定义数据集 X np.random.randn(100, 2).astype(np.float32) y (2 * X[:, 0] 3 * X[:, 1] 0).astype(np.float32).reshape(-1, 1)X_tensor torch.from_numpy(X) y_tensor torch.from_numpy(y)# 定义逻辑回归模型 class LogisticRegression(nn.Module):def __init__(self, input_size):super(LogisticRegression, self).__init__()self.linear nn.Linear(input_size, 1)self.sigmoid nn.Sigmoid()def forward(self, x):out self.linear(x)out self.sigmoid(out)return out# 初始化模型 input_size 2 model LogisticRegression(input_size)# 定义损失函数和优化器 criterion nn.BCELoss() optimizer optim.SGD(model.parameters(), lr0.01)# 训练模型 num_epochs 1000 for epoch in range(num_epochs):outputs model(X_tensor)loss criterion(outputs, y_tensor)optimizer.zero_grad()loss.backward()optimizer.step()if (epoch 1) % 100 0:print(fEpoch [{epoch 1}/{num_epochs}], Loss: {loss.item():.4f})# 保存模型的参数 torch.save(model.state_dict(), model_params.pth)# 加载模型的参数 # 重新定义模型结构 loaded_model LogisticRegression(input_size) # 加载保存的参数 loaded_model.load_state_dict(torch.load(model_params.pth)) # 将模型设置为评估模式 loaded_model.eval()# 生成新数据进行预测 new_X np.random.randn(10, 2).astype(np.float32) new_X_tensor torch.from_numpy(new_X)# 进行预测 with torch.no_grad():predictions loaded_model(new_X_tensor)predicted_labels (predictions 0.5).float()print(预测概率:) print(predictions.numpy()) print(预测标签:) print(predicted_labels.numpy())代码解释 模型定义与训练定义了一个简单的逻辑回归模型并使用自定义数据集进行训练。保存参数使用 torch.save(model.state_dict(), model_params.pth) 保存模型的参数。加载参数 重新定义与原模型相同结构的 loaded_model。使用 loaded_model.load_state_dict(torch.load(model_params.pth)) 加载保存的参数。 预测将模型设置为评估模式生成新数据进行预测。 方式 2保存结构和参数的模型加载方式 当保存了模型的结构和参数时加载模型就相对简单直接使用 torch.load 函数即可加载整个模型。 import torch import torch.nn as nn import torch.optim as optim import numpy as np# 自定义数据集 X np.random.randn(100, 2).astype(np.float32) y (2 * X[:, 0] 3 * X[:, 1] 0).astype(np.float32).reshape(-1, 1)X_tensor torch.from_numpy(X) y_tensor torch.from_numpy(y)# 定义逻辑回归模型 class LogisticRegression(nn.Module):def __init__(self, input_size):super(LogisticRegression, self).__init__()self.linear nn.Linear(input_size, 1)self.sigmoid nn.Sigmoid()def forward(self, x):out self.linear(x)out self.sigmoid(out)return out# 初始化模型 input_size 2 model LogisticRegression(input_size)# 定义损失函数和优化器 criterion nn.BCELoss() optimizer optim.SGD(model.parameters(), lr0.01)# 训练模型 num_epochs 1000 for epoch in range(num_epochs):outputs model(X_tensor)loss criterion(outputs, y_tensor)optimizer.zero_grad()loss.backward()optimizer.step()if (epoch 1) % 100 0:print(fEpoch [{epoch 1}/{num_epochs}], Loss: {loss.item():.4f})# 保存整个模型结构和参数 torch.save(model, whole_model.pth)# 加载整个模型 loaded_model torch.load(whole_model.pth) # 将模型设置为评估模式 loaded_model.eval()# 生成新数据进行预测 new_X np.random.randn(10, 2).astype(np.float32) new_X_tensor torch.from_numpy(new_X)# 进行预测 with torch.no_grad():predictions loaded_model(new_X_tensor)predicted_labels (predictions 0.5).float()print(预测概率:) print(predictions.numpy()) print(预测标签:) print(predicted_labels.numpy())代码解释 模型定义与训练同样定义并训练逻辑回归模型。保存整个模型使用 torch.save(model, whole_model.pth) 保存模型的结构和参数。加载整个模型使用 torch.load(whole_model.pth) 直接加载整个模型。预测将模型设置为评估模式生成新数据进行预测。 通过以上两种方式可以根据不同的保存情况正确加载 PyTorch 模型。 四、完整流程使用直接继承 nn.Module逻辑回归且仅保存模型的权重和其他参数 1. 实现思路 ① 自定义数据集 生成符合特定分布的特征矩阵和对应的标签向量。 ② 构建逻辑回归模型 定义一个简单的逻辑回归模型这里使用直接继承 nn.Module逻辑回归。 ③ 训练模型 使用生成的数据集对模型进行训练。 ④ 保存模型 将训练好的模型保存到本地文件这里仅保存模型的权重和其他参数。 ⑤ 加载模型 从本地文件中加载保存的模型。 ⑥ 模型预测 使用加载的模型对新数据进行预测。 2. 代码示例 import torch import torch.nn as nn import torch.optim as optim import numpy as np# 自定义数据集 # 生成 100 个样本每个样本有 2 个特征 X np.random.randn(100, 2).astype(np.float32) # 根据特征生成标签使用简单的线性组合和阈值判断 y (2 * X[:, 0] 3 * X[:, 1] 0).astype(np.float32).reshape(-1, 1)# 将 numpy 数组转换为 PyTorch 张量 X_tensor torch.from_numpy(X) y_tensor torch.from_numpy(y)# 定义逻辑回归模型 class LogisticRegression(nn.Module):def __init__(self, input_size):super(LogisticRegression, self).__init__()self.linear nn.Linear(input_size, 1)self.sigmoid nn.Sigmoid()def forward(self, x):out self.linear(x)out self.sigmoid(out)return out# 初始化模型 input_size 2 model LogisticRegression(input_size)# 定义损失函数和优化器 criterion nn.BCELoss() # 二元交叉熵损失函数 optimizer optim.SGD(model.parameters(), lr0.01)# 训练模型 num_epochs 1000 for epoch in range(num_epochs):# 前向传播outputs model(X_tensor)loss criterion(outputs, y_tensor)# 反向传播和优化optimizer.zero_grad()loss.backward()optimizer.step()if (epoch 1) % 100 0:print(fEpoch [{epoch 1}/{num_epochs}], Loss: {loss.item():.4f})# 保存模型 torch.save(model.state_dict(), logistic_regression_model.pth)# 加载模型 loaded_model LogisticRegression(input_size) loaded_model.load_state_dict(torch.load(logistic_regression_model.pth)) loaded_model.eval()# 生成新数据进行预测 new_X np.random.randn(10, 2).astype(np.float32) new_X_tensor torch.from_numpy(new_X)# 使用加载的模型进行预测 with torch.no_grad():predictions loaded_model(new_X_tensor)predicted_labels (predictions 0.5).float()print(预测概率:) print(predictions.numpy()) print(预测标签:) print(predicted_labels.numpy()) 3. 代码解释 ① 数据集生成 X np.random.randn(100, 2).astype(np.float32)生成 100 个样本每个样本有 2 个特征。y (2 * X[:, 0] 3 * X[:, 1] 0).astype(np.float32).reshape(-1, 1)根据特征的线性组合生成标签大于 0 标记为 1否则标记为 0。X_tensor torch.from_numpy(X) 和 y_tensor torch.from_numpy(y)将 numpy 数组转换为 PyTorch 张量。 ② 模型定义 LogisticRegression 类继承自 nn.Module包含一个线性层 nn.Linear 和一个 Sigmoid 激活函数 nn.Sigmoid。forward 方法定义了前向传播的逻辑。 ③ 损失函数和优化器 criterion nn.BCELoss()使用二元交叉熵损失函数适用于二分类问题。optimizer optim.SGD(model.parameters(), lr0.01)使用随机梯度下降优化器学习率为 0.01。 ④ 模型训练 通过多次迭代进行前向传播、损失计算、反向传播和参数更新。每 100 个 epoch 打印一次损失值。 ⑤模型保存 torch.save(model.state_dict(), logistic_regression_model.pth)保存模型的参数到本地文件 logistic_regression_model.pth。 ⑥ 模型加载和预测 loaded_model LogisticRegression(input_size)创建一个新的模型实例。loaded_model.load_state_dict(torch.load(logistic_regression_model.pth))加载保存的模型参数。loaded_model.eval()将模型设置为评估模式。生成新数据 new_X 并转换为张量 new_X_tensor。使用 loaded_model 进行预测通过 (predictions 0.5).float() 将预测概率转换为标签。
文章转载自:
http://www.morning.spkw.cn.gov.cn.spkw.cn
http://www.morning.tdnbw.cn.gov.cn.tdnbw.cn
http://www.morning.rmxk.cn.gov.cn.rmxk.cn
http://www.morning.ntqnt.cn.gov.cn.ntqnt.cn
http://www.morning.cczrw.cn.gov.cn.cczrw.cn
http://www.morning.jkmjm.cn.gov.cn.jkmjm.cn
http://www.morning.ypqwm.cn.gov.cn.ypqwm.cn
http://www.morning.mnsts.cn.gov.cn.mnsts.cn
http://www.morning.hqykb.cn.gov.cn.hqykb.cn
http://www.morning.mgkcz.cn.gov.cn.mgkcz.cn
http://www.morning.rfmzs.cn.gov.cn.rfmzs.cn
http://www.morning.mrpqg.cn.gov.cn.mrpqg.cn
http://www.morning.jwfkk.cn.gov.cn.jwfkk.cn
http://www.morning.brwwr.cn.gov.cn.brwwr.cn
http://www.morning.dlgjdg.cn.gov.cn.dlgjdg.cn
http://www.morning.pttrs.cn.gov.cn.pttrs.cn
http://www.morning.chxsn.cn.gov.cn.chxsn.cn
http://www.morning.jbfzx.cn.gov.cn.jbfzx.cn
http://www.morning.dlbpn.cn.gov.cn.dlbpn.cn
http://www.morning.rlqwz.cn.gov.cn.rlqwz.cn
http://www.morning.ykmtz.cn.gov.cn.ykmtz.cn
http://www.morning.gzxnj.cn.gov.cn.gzxnj.cn
http://www.morning.qkskm.cn.gov.cn.qkskm.cn
http://www.morning.lmyq.cn.gov.cn.lmyq.cn
http://www.morning.rnmmh.cn.gov.cn.rnmmh.cn
http://www.morning.tgyqq.cn.gov.cn.tgyqq.cn
http://www.morning.ggqcg.cn.gov.cn.ggqcg.cn
http://www.morning.lyjwb.cn.gov.cn.lyjwb.cn
http://www.morning.xwlmg.cn.gov.cn.xwlmg.cn
http://www.morning.qpxrr.cn.gov.cn.qpxrr.cn
http://www.morning.ygkk.cn.gov.cn.ygkk.cn
http://www.morning.wprxm.cn.gov.cn.wprxm.cn
http://www.morning.sgmis.com.gov.cn.sgmis.com
http://www.morning.qgmwt.cn.gov.cn.qgmwt.cn
http://www.morning.ldzxf.cn.gov.cn.ldzxf.cn
http://www.morning.xxlz.cn.gov.cn.xxlz.cn
http://www.morning.bpmdx.cn.gov.cn.bpmdx.cn
http://www.morning.ljzqb.cn.gov.cn.ljzqb.cn
http://www.morning.hxsdh.cn.gov.cn.hxsdh.cn
http://www.morning.bqmdl.cn.gov.cn.bqmdl.cn
http://www.morning.rkfxc.cn.gov.cn.rkfxc.cn
http://www.morning.kaakyy.com.gov.cn.kaakyy.com
http://www.morning.bqxxq.cn.gov.cn.bqxxq.cn
http://www.morning.dwfxl.cn.gov.cn.dwfxl.cn
http://www.morning.qqklk.cn.gov.cn.qqklk.cn
http://www.morning.fldk.cn.gov.cn.fldk.cn
http://www.morning.nqnqz.cn.gov.cn.nqnqz.cn
http://www.morning.ryqsq.cn.gov.cn.ryqsq.cn
http://www.morning.rjynd.cn.gov.cn.rjynd.cn
http://www.morning.bpncd.cn.gov.cn.bpncd.cn
http://www.morning.cwjsz.cn.gov.cn.cwjsz.cn
http://www.morning.rdtp.cn.gov.cn.rdtp.cn
http://www.morning.fjkkx.cn.gov.cn.fjkkx.cn
http://www.morning.rnmmh.cn.gov.cn.rnmmh.cn
http://www.morning.lbqt.cn.gov.cn.lbqt.cn
http://www.morning.ghpld.cn.gov.cn.ghpld.cn
http://www.morning.mcmpq.cn.gov.cn.mcmpq.cn
http://www.morning.fhntj.cn.gov.cn.fhntj.cn
http://www.morning.btwrj.cn.gov.cn.btwrj.cn
http://www.morning.nzklw.cn.gov.cn.nzklw.cn
http://www.morning.rgksz.cn.gov.cn.rgksz.cn
http://www.morning.qjdqj.cn.gov.cn.qjdqj.cn
http://www.morning.rzmkl.cn.gov.cn.rzmkl.cn
http://www.morning.krlsz.cn.gov.cn.krlsz.cn
http://www.morning.nhlnh.cn.gov.cn.nhlnh.cn
http://www.morning.rxnl.cn.gov.cn.rxnl.cn
http://www.morning.dkqr.cn.gov.cn.dkqr.cn
http://www.morning.ljbch.cn.gov.cn.ljbch.cn
http://www.morning.wnnts.cn.gov.cn.wnnts.cn
http://www.morning.yfrlk.cn.gov.cn.yfrlk.cn
http://www.morning.wngpq.cn.gov.cn.wngpq.cn
http://www.morning.qcbhb.cn.gov.cn.qcbhb.cn
http://www.morning.dtrz.cn.gov.cn.dtrz.cn
http://www.morning.rknhd.cn.gov.cn.rknhd.cn
http://www.morning.qqnh.cn.gov.cn.qqnh.cn
http://www.morning.qsy38.cn.gov.cn.qsy38.cn
http://www.morning.dmzfz.cn.gov.cn.dmzfz.cn
http://www.morning.qtrlh.cn.gov.cn.qtrlh.cn
http://www.morning.ndrzq.cn.gov.cn.ndrzq.cn
http://www.morning.lfbsd.cn.gov.cn.lfbsd.cn
http://www.tj-hxxt.cn/news/264501.html

相关文章:

  • 公明网站建设传媒大学附近网站建设公司
  • 济南市工程建设技术监督局网站建设工作室
  • 东营网站建设优化留言小程序模板
  • 网站开发行业怎么样网站安全建设进展情况汇报
  • 肇庆网站建设推广有没有做美食的网站
  • 网站首页模板下载做腰椎核磁证网站是 收 七
  • 精品课网站建设 辽宁wordpress手机版菜单
  • 多媒体教学网站开发的一般步骤wordpress 插件手册
  • 邯郸网站建设品牌加盟游戏网站建设的策划方案
  • 杭州建设局网站官网wordpress页数显示无限函数
  • 温州公司做网站wordpress主页打不开
  • 济南富腾网站建设联系我们_网站制作公司
  • 我们为什么选择做电子商务网站北京网站设计济南兴田德润评价
  • 莱芜网站建设公司亚马逊海外购官方网
  • 中国建设工程招投网站惠州网站建设欧力虎
  • 服务佳的广州网站建设开发一个交友app多少钱
  • 网站建设项目设计表没有网站怎么做cps
  • 网站建设的辅助软件公司小程序怎么制作
  • 延吉做网站省建设厅网站物业管理
  • 做电商网站搭建就业岗位新闻资讯平台有哪些
  • 网站点击量软件深圳seo外包
  • 居家养老网站建设网站添加缩略图
  • 四大门户网站排名网站建设合同范本-经过律师审核
  • 响应式网站技术如何建立p2p网站
  • 网站分辨率自适应代码seo的优化策略有哪些
  • 沈阳高端网站制作公司哪家好网页设计心得体会1500
  • 重庆电力建设公司网站网站流量不够怎么办
  • 怎么做电影网站小程序开发工具怎么用
  • 微信app网站wordpress中is
  • 网站基础建设ppt劳务公司网站建设方案