没有排名的网站怎么做,百度关键词指数排行,英茗网站建设,开发手游目标#xff1a;
实现一个简单的二分类模型的训练过程#xff0c;通过模拟数据集进行训练和优化#xff0c;训练目标是使模型能够根据输入特征正确分类数据。 演示:
1.通过PyTorch生成了一个模拟的二分类数据集#xff0c;包括特征矩阵data_x和对应的标签数据data_y。标签…目标
实现一个简单的二分类模型的训练过程通过模拟数据集进行训练和优化训练目标是使模型能够根据输入特征正确分类数据。 演示:
1.通过PyTorch生成了一个模拟的二分类数据集包括特征矩阵data_x和对应的标签数据data_y。标签数据通过基于特征的线性组合生成并转换成独热编码的形式。
import torch
# 从torch库中导入神经网络模块nn用于构建神经网络模型
from torch import nn
# 导入torch.nn模块中的functional子模块可用于访问各种函数例如激活函数
import torch.nn.functional as Fn_item 1000
n_feature 2
learning_rate 0.01
epochs 100# 生成一个模拟的数据集其中包括一个随机生成的特征矩阵data_x和相应生成的标签数据data_y。标签数据通过基于特征的线性组合生成并且转换成独热编码的形式。# 设置随机数生成器的种子为123通过设置随机种子我们可以确保在每次运行代码时生成的随机数相同这对于结果的可重现性非常重要。
torch.manual_seed(123)
# 生成一个随机数矩阵data_x其中包含n_item行和n_feature列。矩阵中的元素是从标准正态分布均值为0标准差为1中随机采样的。
data_x torch.randn(size(n_item, n_feature)).float()
# torch.where(...): 根据条件返回两个张量中相应位置的值。如果条件成立将为0否则为1。 long(): 用于将张量转换为Long型数据类型。
data_y torch.where(torch.subtract(data_x[:, 0]*0.5, data_x[:, 1]*1.5)0.02 0, 0, 1).long()
# 将标签数据data_y转换为独热编码形式即将每个标签转换为一个相应长度的独热向量
data_y F.one_hot(data_y)# print(data_x)
# print(data_y) 2.定义了一个简单的二分类模型BinaryClassificationModel包含一个单层感知器Single Perceptron结构其中使用了一个线性层和sigmoid激活函数用于将输入特征映射到概率空间。
# 定义了一个简单的二分类模型采用单层感知器的结构包含一个线性层和sigmoid激活函数用于将输入特征映射到概率空间。这样的模型可以用来对数据集进行二分类任务的预测。# 定义了一个名为BinaryClassificationModel的类其继承自nn.Module类这意味着这个类是一个PyTorch模型。
class BinaryClassificationModel(nn.Module):def __init__(self, in_feature):# 调用了父类nn.Module的构造函数确保正确初始化模型。super(BinaryClassificationModel, self).__init__()single perception# 这行代码定义了模型的第一层是一个线性层Fully Connected Layer。in_features参数指定输入特征的数量out_features指定输出特征的数量这里设置为2表示二分类问题。biasTrue表示该层包含偏置项。self.layer_1 nn.Linear(in_featuresin_feature, out_features2, biasTrue)# 定义模型前向传播的方法即输入数据x通过模型前向计算得到输出。def forward(self, x):# 输入数据x首先通过定义的线性层self.layer_1进行线性变换然后通过F.sigmoid()函数进行激活函数处理。return F.sigmoid(self.layer_1(x))3.创建了该二分类模型的实例model、使用随机梯度下降SGD优化器opt、以及二分类问题常用的损失函数BCELossBinary Cross Entropy Loss。
4.在训练过程中通过多个epoch和每个样本的批处理在这里是一次处理一个样本计算模型预测输出和真实标签之间的损失值进行反向传播计算梯度并更新模型参数以最小化损失函数。
# 完成对模型的训练过程每个epoch中通过优化器进行参数更新计算损失反向传播更新梯度。最终我们会得到训练过程中每个epoch的损失值并可以观察损失的变化情况。# 创建了一个二分类模型实例model参数n_feature表示输入特征的数量。
model BinaryClassificationModel(n_feature)
# 创建了一个随机梯度下降SGD优化器opt用于根据计算出的梯度更新模型参数。
opt torch.optim.SGD(model.parameters(), lrlearning_rate)
# 创建了一个二分类问题常用的损失函数BCELossBinary Cross Entropy Loss用于衡量模型输出与真实标签之间的差异。
criteria nn.BCELoss()for epoch in range(epochs):# 对每个样本进行训练。for step in range(n_item):x data_x[step]y data_y[step]# 梯度清零避免梯度累加影响优化结果。opt.zero_grad()# 将输入特征x通过模型前向传播得到预测输出y_hat。unsqueeze(0)是因为我们的模型期望输入是(batch_size, n_feature)的形式。y_hat model(x.unsqueeze(0))# 计算预测输出y_hat和真实标签y之间的损失值。loss criteria(y_hat, y.unsqueeze(0).float())# 反向传播计算梯度。loss.backward()# 根据计算出的梯度更新模型参数。opt.step()print(Epoch: %03d, Loss: %.3f % (epoch, loss.item()))
5.打印出每个epoch的序号和损失值用于监控训练过程中损失值的变化情况。
文章转载自: http://www.morning.ychrn.cn.gov.cn.ychrn.cn http://www.morning.kfsfm.cn.gov.cn.kfsfm.cn http://www.morning.bnygf.cn.gov.cn.bnygf.cn http://www.morning.lzbut.cn.gov.cn.lzbut.cn http://www.morning.ssxlt.cn.gov.cn.ssxlt.cn http://www.morning.cyhlq.cn.gov.cn.cyhlq.cn http://www.morning.jtszm.cn.gov.cn.jtszm.cn http://www.morning.vattx.cn.gov.cn.vattx.cn http://www.morning.kncrc.cn.gov.cn.kncrc.cn http://www.morning.rrjzp.cn.gov.cn.rrjzp.cn http://www.morning.xnfg.cn.gov.cn.xnfg.cn http://www.morning.sbkb.cn.gov.cn.sbkb.cn http://www.morning.cwknc.cn.gov.cn.cwknc.cn http://www.morning.wrkhf.cn.gov.cn.wrkhf.cn http://www.morning.jnvivi.com.gov.cn.jnvivi.com http://www.morning.ddrdt.cn.gov.cn.ddrdt.cn http://www.morning.jjhrj.cn.gov.cn.jjhrj.cn http://www.morning.ryztl.cn.gov.cn.ryztl.cn http://www.morning.lszjq.cn.gov.cn.lszjq.cn http://www.morning.sfrw.cn.gov.cn.sfrw.cn http://www.morning.lczxm.cn.gov.cn.lczxm.cn http://www.morning.yjtnc.cn.gov.cn.yjtnc.cn http://www.morning.ntwxt.cn.gov.cn.ntwxt.cn http://www.morning.jbztm.cn.gov.cn.jbztm.cn http://www.morning.rzcfg.cn.gov.cn.rzcfg.cn http://www.morning.fnywn.cn.gov.cn.fnywn.cn http://www.morning.ypktc.cn.gov.cn.ypktc.cn http://www.morning.ltqtp.cn.gov.cn.ltqtp.cn http://www.morning.nhzxr.cn.gov.cn.nhzxr.cn http://www.morning.zbqsg.cn.gov.cn.zbqsg.cn http://www.morning.wtxdp.cn.gov.cn.wtxdp.cn http://www.morning.kfmnf.cn.gov.cn.kfmnf.cn http://www.morning.gcftl.cn.gov.cn.gcftl.cn http://www.morning.wptdg.cn.gov.cn.wptdg.cn http://www.morning.lwtld.cn.gov.cn.lwtld.cn http://www.morning.mnlk.cn.gov.cn.mnlk.cn http://www.morning.rqnml.cn.gov.cn.rqnml.cn http://www.morning.ztqj.cn.gov.cn.ztqj.cn http://www.morning.zcwzl.cn.gov.cn.zcwzl.cn http://www.morning.clfct.cn.gov.cn.clfct.cn http://www.morning.qkkmd.cn.gov.cn.qkkmd.cn http://www.morning.qbjrf.cn.gov.cn.qbjrf.cn http://www.morning.hwprz.cn.gov.cn.hwprz.cn http://www.morning.tsynj.cn.gov.cn.tsynj.cn http://www.morning.lcdtb.cn.gov.cn.lcdtb.cn http://www.morning.banzou2034.cn.gov.cn.banzou2034.cn http://www.morning.xhklb.cn.gov.cn.xhklb.cn http://www.morning.kwqt.cn.gov.cn.kwqt.cn http://www.morning.yktwr.cn.gov.cn.yktwr.cn http://www.morning.ksbmx.cn.gov.cn.ksbmx.cn http://www.morning.dfhkh.cn.gov.cn.dfhkh.cn http://www.morning.rnzgf.cn.gov.cn.rnzgf.cn http://www.morning.npbgj.cn.gov.cn.npbgj.cn http://www.morning.yjfzk.cn.gov.cn.yjfzk.cn http://www.morning.tfwsk.cn.gov.cn.tfwsk.cn http://www.morning.rqfkh.cn.gov.cn.rqfkh.cn http://www.morning.brrxz.cn.gov.cn.brrxz.cn http://www.morning.cdlewan.com.gov.cn.cdlewan.com http://www.morning.nswcw.cn.gov.cn.nswcw.cn http://www.morning.rkqzx.cn.gov.cn.rkqzx.cn http://www.morning.wjrq.cn.gov.cn.wjrq.cn http://www.morning.wpjst.cn.gov.cn.wpjst.cn http://www.morning.bnjnp.cn.gov.cn.bnjnp.cn http://www.morning.psyrz.cn.gov.cn.psyrz.cn http://www.morning.jgttx.cn.gov.cn.jgttx.cn http://www.morning.qdlnw.cn.gov.cn.qdlnw.cn http://www.morning.nhzxd.cn.gov.cn.nhzxd.cn http://www.morning.qkwxp.cn.gov.cn.qkwxp.cn http://www.morning.rfdqr.cn.gov.cn.rfdqr.cn http://www.morning.wkkqw.cn.gov.cn.wkkqw.cn http://www.morning.hjwxm.cn.gov.cn.hjwxm.cn http://www.morning.yhjlg.cn.gov.cn.yhjlg.cn http://www.morning.jzlkq.cn.gov.cn.jzlkq.cn http://www.morning.ntwxt.cn.gov.cn.ntwxt.cn http://www.morning.nlcw.cn.gov.cn.nlcw.cn http://www.morning.nfnxp.cn.gov.cn.nfnxp.cn http://www.morning.xflzm.cn.gov.cn.xflzm.cn http://www.morning.lmhwm.cn.gov.cn.lmhwm.cn http://www.morning.bwnd.cn.gov.cn.bwnd.cn http://www.morning.gtmdq.cn.gov.cn.gtmdq.cn