当前位置: 首页 > news >正文

做地方网站收益怎么样wordpress加上live2d

做地方网站收益怎么样,wordpress加上live2d,wordpress如何装修,淄博seo定制#x1f497;#x1f497;#x1f497;欢迎来到我的博客#xff0c;你将找到有关如何使用技术解决问题的文章#xff0c;也会找到某个技术的学习路线。无论你是何种职业#xff0c;我都希望我的博客对你有所帮助。最后不要忘记订阅我的博客以获取最新文章#xff0c;也欢… 欢迎来到我的博客你将找到有关如何使用技术解决问题的文章也会找到某个技术的学习路线。无论你是何种职业我都希望我的博客对你有所帮助。最后不要忘记订阅我的博客以获取最新文章也欢迎在文章下方留下你的评论和反馈。我期待着与你分享知识、互相学习和建立一个积极的社区。谢谢你的光临让我们一起踏上这个知识之旅 文章目录 引言什么是多分类问题处理步骤多分类问题MNIST dataset的实现NLLLoss 和 CrossEntropyLoss 引言 当处理多分类问题时PyTorch是一种非常有用的深度学习框架。在这篇博客中我们将讨论如何使用PyTorch来解决多分类问题。我们将介绍多分类问题的基本概念构建一个简单的多分类神经网络模型并演示如何准备数据、训练模型和评估结果。 什么是多分类问题 多分类问题是一种机器学习任务其中目标是将输入数据分为多个不同的类别或标签。与二分类问题不同多分类问题涉及到三个或更多类别的分类任务。例如图像分类问题可以将图像分为不同的类别如猫、狗、鸟等。 处理步骤 准备数据 收集和准备数据集确保每个样本都有相应的标签以指明其所属类别。 划分数据集为训练集、验证集和测试集以便进行模型训练、调优和性能评估。 数据预处理 对数据进行预处理例如归一化、标准化、缺失值处理或数据增强以确保模型训练的稳定性和性能。 选择模型架构 选择适当的深度学习模型架构通常包括卷积神经网络CNN、循环神经网络RNN、Transformer等具体取决于问题的性质。 定义损失函数 为多分类问题选择适当的损失函数通常是交叉熵损失Cross-Entropy Loss。 选择优化器 选择合适的优化算法如随机梯度下降SGD、Adam、RMSprop等以训练模型并调整权重。 训练模型 使用训练数据集来训练模型。在每个训练迭代中通过前向传播和反向传播来更新模型参数以减小损失函数的值。 评估模型 使用验证集来评估模型性能。常见的性能指标包括准确性、精确度、召回率、F1分数等。 调优模型 根据验证集的性能对模型进行调优可以尝试不同的超参数设置、模型架构变化或数据增强策略。 测试模型 最终在独立的测试数据集上评估模型的性能以获得最终性能评估。 部署模型 将训练好的模型部署到实际应用中用于实时或批处理多分类任务。 多分类问题 之前我们讨论的问题都是二分类居多对于二分类问题我们若求得p(0)南无p(1)1-p(0)还是比较容易的但是本节我们将引入多分类那么我们所求得就转化为p(i)(i1,2,3,4…)同时我们需要满足以上概率中每一个都大于0且总和为1。 处理多分类问题这里我们新引入了一个称为Softmax Layer 接下来我们一起讨论一下Softmax Layer层 首先我们计算指数计算e的zi次幂原因很简单e的指数函数恒大于0分母就是e的z1次幂e的z2次幂e的z3次幂…求和这样所有的概率和就为1了。 下图形象的展示了SoftmaxExponent这里指指数和上面我们说的一样先求指数这样有了分子再将所有指数求和最后一一divide得到了每一个概率。 接下来我们一起来看看损失函数 如果使用numpy进行实现根据刘二大人的代码可以进行如下的实现 import numpy as np y np.array([1,0,0]) z np.array([0.2,0.1,-0.1]) y_pred np.exp(z)/np.exp(z).sum() loss (-y * np.log(y_pred)).sum() print(loss)运行结果如下 注意神经网络的最后一层不需要激活 在pytorch中 import torch y torch.LongTensor([0]) # 长整型 z torch.Tensor([[0.2, 0.1, -0.1]]) criterion torch.nn.CrossEntropyLoss() loss criterion(z, y) print(loss)运行结果如下 下面根据一个例子进行演示 criterion torch.nn.CrossEntropyLoss() Y torch.LongTensor([2,0,1]) Y_pred1 torch.Tensor([[0.1, 0.2, 0.9], [1.1, 0.1, 0.2], [0.2, 2.1, 0.1]]) Y_pred2 torch.Tensor([[0.8, 0.2, 0.3], [0.2, 0.3, 0.5], [0.2, 0.2, 0.5]]) l1 criterion(Y_pred1, Y) l2 criterion(Y_pred2, Y) print(Batch Loss1 , l1.data, \nBatch Loss2, l2.data)运行结果如下 根据上面的代码可以看出第一个损失比第二个损失要小。原因很简单想对于Y_pred1每一个预测的分类与Y是一致的而Y_pred2则相差了一下所以损失自然就大了些 MNIST dataset的实现 首先第一步还是导包 import torch from torchvision import transforms from torchvision import datasets from torch.utils.data import DataLoader import torch.nn.functional as F import torch.optim as optim之后是数据的准备 batch_size 64 # transform可以将其转化为0-1形状的转换从28×28转换为1×28×28 transform transforms.Compose([transforms.ToTensor(),transforms.Normalize((0.1307, ), (0.3081, )) # 均值mean和标准差std ]) train_dataset datasets.MNIST(root../dataset/mnist/, trainTrue,downloadTrue,transformtransform) train_loader DataLoader(train_dataset,shuffleTrue,batch_sizebatch_size) test_dataset datasets.MNIST(root../dataset/mnist/, trainFalse,downloadTrue,transformtransform) test_loader DataLoader(test_dataset,shuffleFalse,batch_sizebatch_size)接下来我们构建网络 class Net(torch.nn.Module):def __init__(self):super(Net, self).__init__()self.l1 torch.nn.Linear(784, 512) self.l2 torch.nn.Linear(512, 256) self.l3 torch.nn.Linear(256, 128) self.l4 torch.nn.Linear(128, 64) self.l5 torch.nn.Linear(64, 10)def forward(self, x):x x.view(-1, 784)x F.relu(self.l1(x)) x F.relu(self.l2(x)) x F.relu(self.l3(x)) x F.relu(self.l4(x)) return self.l5(x) # 注意最后一层不做激活 model Net()之后定义损失和优化器 criterion torch.nn.CrossEntropyLoss() optimizer optim.SGD(model.parameters(), lr0.01, momentum0.5)接下来就进行训练了 def train(epoch):running_loss 0.0for batch_idx, data in enumerate(train_loader, 0): inputs, target dataoptimizer.zero_grad()# forward backward updateoutputs model(inputs)loss criterion(outputs, target)loss.backward()optimizer.step()running_loss loss.item()if batch_idx % 300 299:print([%d, %5d] loss: %.3f % (epoch 1, batch_idx 1, running_loss / 300)) running_loss 0.0def test():correct 0total 0with torch.no_grad(): # 这里可以防止内嵌代码不会执行梯度for data in test_loader:images, labels dataoutputs model(images)_, predicted torch.max(outputs.data, dim1)total labels.size(0)correct (predicted labels).sum().item()print(Accuracy on test set: %d %% % (100 * correct / total))最后调用执行 if __name__ __main__: for epoch in range(10): train(epoch)test()NLLLoss 和 CrossEntropyLoss NLLLoss 和 CrossEntropyLoss也称为交叉熵损失是深度学习中常用的两种损失函数用于测量模型的输出与真实标签之间的差距通常用于分类任务。它们有一些相似之处但也有一些不同之处。 相同点 用途两者都用于分类任务评估模型的输出和真实标签之间的差异以便进行模型的训练和优化。 数学基础NLLLoss 和 CrossEntropyLoss 本质上都是交叉熵损失的不同变种它们都以信息论的概念为基础衡量两个概率分布之间的相似度。 输入格式它们通常期望模型的输出是一个概率分布表示各个类别的预测概率以及真实的标签。不同点 输入格式NLLLoss 通常期望输入是对数概率log probabilities而 CrossEntropyLoss 通常期望输入是未经对数化的概率。在实际应用中CrossEntropyLoss 通常与softmax操作结合使用将原始模型输出转化为概率分布而NLLLoss可以直接使用对数概率。 对数化NLLLoss 要求将模型输出的概率经过对数化取对数以获得对数概率然后与真实标签的离散概率分布进行比较。CrossEntropyLoss 通常在 softmax 操作之后直接使用未对数化的概率值与真实标签比较。 输出维度NLLLoss 更通用可以用于多种情况包括多类别分类和序列生成等任务因此需要更多的灵活性。CrossEntropyLoss 通常用于多类别分类任务。总之NLLLoss 和 CrossEntropyLoss 都用于分类任务但它们在输入格式和使用上存在一些差异。通常选择哪个损失函数取决于你的模型输出的格式以及任务的性质。如果你的模型输出已经是对数概率形式通常使用NLLLoss否则通常使用CrossEntropyLoss。 挑战与创造都是很痛苦的但是很充实。
文章转载自:
http://www.morning.yrdt.cn.gov.cn.yrdt.cn
http://www.morning.wqpm.cn.gov.cn.wqpm.cn
http://www.morning.gwsll.cn.gov.cn.gwsll.cn
http://www.morning.tnhg.cn.gov.cn.tnhg.cn
http://www.morning.wrkhf.cn.gov.cn.wrkhf.cn
http://www.morning.bbgr.cn.gov.cn.bbgr.cn
http://www.morning.ylsxk.cn.gov.cn.ylsxk.cn
http://www.morning.ztmkg.cn.gov.cn.ztmkg.cn
http://www.morning.clyhq.cn.gov.cn.clyhq.cn
http://www.morning.qwmsq.cn.gov.cn.qwmsq.cn
http://www.morning.rdkqt.cn.gov.cn.rdkqt.cn
http://www.morning.mfjfh.cn.gov.cn.mfjfh.cn
http://www.morning.yxshp.cn.gov.cn.yxshp.cn
http://www.morning.leboju.com.gov.cn.leboju.com
http://www.morning.bflwj.cn.gov.cn.bflwj.cn
http://www.morning.qwrb.cn.gov.cn.qwrb.cn
http://www.morning.lfmwt.cn.gov.cn.lfmwt.cn
http://www.morning.ntgsg.cn.gov.cn.ntgsg.cn
http://www.morning.pakistantractors.com.gov.cn.pakistantractors.com
http://www.morning.cqyhdy.cn.gov.cn.cqyhdy.cn
http://www.morning.wnhml.cn.gov.cn.wnhml.cn
http://www.morning.mqldj.cn.gov.cn.mqldj.cn
http://www.morning.nykzl.cn.gov.cn.nykzl.cn
http://www.morning.lqtwb.cn.gov.cn.lqtwb.cn
http://www.morning.mrnnb.cn.gov.cn.mrnnb.cn
http://www.morning.qhjkz.cn.gov.cn.qhjkz.cn
http://www.morning.xrnh.cn.gov.cn.xrnh.cn
http://www.morning.fjgwg.cn.gov.cn.fjgwg.cn
http://www.morning.jzccn.cn.gov.cn.jzccn.cn
http://www.morning.hchrb.cn.gov.cn.hchrb.cn
http://www.morning.tmjhy.cn.gov.cn.tmjhy.cn
http://www.morning.rgrdd.cn.gov.cn.rgrdd.cn
http://www.morning.kxgn.cn.gov.cn.kxgn.cn
http://www.morning.nxcgp.cn.gov.cn.nxcgp.cn
http://www.morning.xzrbd.cn.gov.cn.xzrbd.cn
http://www.morning.jzfrl.cn.gov.cn.jzfrl.cn
http://www.morning.ptqpd.cn.gov.cn.ptqpd.cn
http://www.morning.kqpxb.cn.gov.cn.kqpxb.cn
http://www.morning.mdpkf.cn.gov.cn.mdpkf.cn
http://www.morning.hsrch.cn.gov.cn.hsrch.cn
http://www.morning.lswgs.cn.gov.cn.lswgs.cn
http://www.morning.gbcxb.cn.gov.cn.gbcxb.cn
http://www.morning.pkrb.cn.gov.cn.pkrb.cn
http://www.morning.ngzkt.cn.gov.cn.ngzkt.cn
http://www.morning.ypxyl.cn.gov.cn.ypxyl.cn
http://www.morning.nrqtk.cn.gov.cn.nrqtk.cn
http://www.morning.lwgsk.cn.gov.cn.lwgsk.cn
http://www.morning.rjnm.cn.gov.cn.rjnm.cn
http://www.morning.bqpg.cn.gov.cn.bqpg.cn
http://www.morning.wkmpx.cn.gov.cn.wkmpx.cn
http://www.morning.njpny.cn.gov.cn.njpny.cn
http://www.morning.fblkr.cn.gov.cn.fblkr.cn
http://www.morning.krwzy.cn.gov.cn.krwzy.cn
http://www.morning.hwcgg.cn.gov.cn.hwcgg.cn
http://www.morning.bzcjx.cn.gov.cn.bzcjx.cn
http://www.morning.hbtarq.com.gov.cn.hbtarq.com
http://www.morning.rbktw.cn.gov.cn.rbktw.cn
http://www.morning.kjkml.cn.gov.cn.kjkml.cn
http://www.morning.mdnnz.cn.gov.cn.mdnnz.cn
http://www.morning.lsnhs.cn.gov.cn.lsnhs.cn
http://www.morning.sxjmz.cn.gov.cn.sxjmz.cn
http://www.morning.rlfr.cn.gov.cn.rlfr.cn
http://www.morning.leboju.com.gov.cn.leboju.com
http://www.morning.wclxm.cn.gov.cn.wclxm.cn
http://www.morning.khcpx.cn.gov.cn.khcpx.cn
http://www.morning.mhnxs.cn.gov.cn.mhnxs.cn
http://www.morning.mmjyk.cn.gov.cn.mmjyk.cn
http://www.morning.hlwzd.cn.gov.cn.hlwzd.cn
http://www.morning.gwmjy.cn.gov.cn.gwmjy.cn
http://www.morning.rmtmk.cn.gov.cn.rmtmk.cn
http://www.morning.fbpyd.cn.gov.cn.fbpyd.cn
http://www.morning.shangwenchao4.cn.gov.cn.shangwenchao4.cn
http://www.morning.bpzw.cn.gov.cn.bpzw.cn
http://www.morning.tnjff.cn.gov.cn.tnjff.cn
http://www.morning.zqzhd.cn.gov.cn.zqzhd.cn
http://www.morning.rnht.cn.gov.cn.rnht.cn
http://www.morning.dfffm.cn.gov.cn.dfffm.cn
http://www.morning.qxgmp.cn.gov.cn.qxgmp.cn
http://www.morning.nyqnk.cn.gov.cn.nyqnk.cn
http://www.morning.stsnf.cn.gov.cn.stsnf.cn
http://www.tj-hxxt.cn/news/242026.html

相关文章:

  • 温州哪里有做网站百度空间导出wordpress
  • 网站代理服务器连接失败常州做网站麦策
  • 专业网站推广优化wordpress首页显示摘要
  • 哈尔滨教育云平台网站建设主机网站建设
  • 如何向百度举报网站seo网站排名优化服务
  • 网站建设费用估计怎么把本地wordpress上传
  • 支付宝可以给第三方网站做担保么做视频搬运哪个网站最赚钱
  • 门户网站建设开发需要注意什么WordPress浏览计数插件
  • 文章采集网站wordpress登录才能浏览
  • 网站开发学习课程wordpress打开网页耗内存
  • 宣城市建设监督管理局网站首页qq在线网站代码
  • 建设工程消防备案查询网站做竞品分析去哪个网站
  • php网站开发 学习计划郴州有什么好玩的地方
  • 建设信用卡登录中心网站做货代的有哪些网站
  • 模板网站怎么做301设计专业网站公司
  • 网站后台图片做链接苏州高新区住建局官网
  • 标书制作技巧济宁优化推广
  • 企业网站的基本内容和营销功能用asp.net做的网站贴吧
  • 容桂网站建设联系方式网站预订系统建设
  • 电器网站建设流程深圳网络营销做什么的
  • 专业网站建设多少钱网站 建设文档
  • 想做一个网站平台怎么做百度站长工具后台
  • 工信部网站备案要求如何注册免费企业邮箱
  • 昆明网站建设哪个好做网站前端后台
  • 网站模板下载模板下载安装wordpress教程网59iwp
  • 做牛津布面料在哪个网站找客户网站怎么做数据备份
  • 烟台网站建设比较大的成都 直播 网站建设
  • 图文网站模板网页链接调用服务需要开启还是关闭
  • 嘉兴免费网站制作中国商标交易网
  • 北京网站优化前景网站使用功能介绍是用什么软件做的