当前位置: 首页 > news >正文

做期货黄金哪个网站信息数据准不囤货的网店怎么开

做期货黄金哪个网站信息数据准,不囤货的网店怎么开,义乌外发联合加工网,国家企业信用信息公示官网糸 本来#xff0c;前辈们用caffe搭建了一个squeezenet的工程#xff0c;用起来也还行#xff0c;但考虑到caffe的停更后续转trt应用在工程上时可能会有版本的问题所以搭建了一个pytorch版本的。 以下的环境搭建不再细说#xff0c;主要就是pyorch#xff0c;其余的需要什么p… 本来前辈们用caffe搭建了一个squeezenet的工程用起来也还行但考虑到caffe的停更后续转trt应用在工程上时可能会有版本的问题所以搭建了一个pytorch版本的。 以下的环境搭建不再细说主要就是pyorch其余的需要什么pip install什么。 网络搭建 squeezenet的网络结构及其具体的参数如下 后续对着这张表进行查看每层的输出时偶然发现这张表有问题一张224×224的图片经过7×7步长为2的卷积层时输出应该是109×109才对而不是这个111×111。所以此处我猜测要不是卷积核的参数有问题要不就是这个输出结果有问题。我对了下下面的结果发现都是从这个111×111的结果得出来的这个结果没问题但是我又对了下原有caffe版本的第一个卷积层用的就是这个7×7/2的参数卷积核也没问题。这就有点矛盾了…这张表出自作者原论文论文也是发表在顶会上按道理应该不会有错才对。才疏学浅希望大家有知道咋回事的能告诉我一声这里我就还是用这个卷积核的参数了。 squeezenet有以上三个版本我对了下发现前辈用的是中间这个带有简单残差的结构为了进行对比这里也就用这个结构进行搭建了。 如下为网络结构的代码 import torch import torch.nn as nnclass Fire(nn.Module):def __init__(self, in_channel, squzee_channel, out_channel):super().__init__()self.squeeze nn.Sequential(nn.Conv2d(in_channel, squzee_channel, 1),nn.ReLU(inplaceTrue))self.expand_1x1 nn.Sequential(nn.Conv2d(squzee_channel, out_channel, 1), nn.ReLU(inplaceTrue))self.expand_3x3 nn.Sequential(nn.Conv2d(squzee_channel, out_channel, 3, padding1),nn.ReLU(inplaceTrue))def forward(self, x):x self.squeeze(x)x torch.cat([self.expand_1x1(x),self.expand_3x3(x)], 1)return xclass SqueezeNet_caffe(nn.Module):mobile net with simple bypassdef __init__(self, class_num5):super().__init__()self.stem nn.Sequential(nn.Conv2d(in_channels3, out_channels96, kernel_size7, stride2),nn.ReLU(inplaceTrue),nn.MaxPool2d(3, 2, ceil_modeTrue))self.fire2 Fire(96, 16, 64)self.fire3 Fire(128, 16, 64)self.fire4 Fire(128, 32, 128)self.fire5 Fire(256, 32, 128)self.fire6 Fire(256, 48, 192)self.fire7 Fire(384, 48, 192)self.fire8 Fire(384, 64, 256)self.fire9 Fire(512, 64, 256)self.maxpool nn.MaxPool2d(3, 2, ceil_modeTrue)self.classifier nn.Sequential(nn.Dropout(p0.5),nn.Conv2d(512, class_num, kernel_size1), nn.ReLU(inplaceTrue),nn.AdaptiveAvgPool2d((1, 1)) )def forward(self, x):x self.stem(x)f2 self.fire2(x)f3 self.fire3(f2) f2f4 self.fire4(f3)f4 self.maxpool(f4)f5 self.fire5(f4) f4f6 self.fire6(f5)f7 self.fire7(f6) f6f8 self.fire8(f7)f8 self.maxpool(f8)f9 self.fire9(f8) f8x self.classifier(f9)x x.view(x.size(0), -1)return xdef squeezenet_caffe(class_num5):return SqueezeNet_caffe(class_numclass_num)然后其余的整个工程代码就是pytorch搭建dataset、dataloader每轮的前向、计算loss、反向传播等都是一个差不多的套路就不在这里码出来了直接放上链接大家有需要可以直接下载里面也集成了其他的分类网络。 数据处理 dataset我用的是torchvision.datasets.ImageFolder所以用目录名称作为数据集的label目录结构如下 将每一类的图片都放在对应的目录中验证集以及测试集的数据集也是按照这样的格式。 运行命令 训练命令 python train.py -net squeezenet_caffe -gpu -b 64 -t_data 训练集路径 -v_data 验证集路径 -imgsz 100-net后面跟着是网络类型都集成了如下的分类网络 如果有n卡则-gpu使用gpu训练-b是batch size-imgsz是数据的input尺寸即resize的尺寸。 测试命令 python test.py -net squeezenet_caffe -weights 训练好的模型路径 -gpu -b 64 -data 测试集路径 -imgsz 100出现问题 一开始进行训练一切正常到后面却忽然画风突变 loss忽然大幅度上升acc也同一时刻大幅度下降然后数值不变呈斜率为0的一条直线。估计是梯度爆炸了也是到这一步我先从网络结构找原因对本文的第一张表一层一层对参数和结果才发现表中的问题网络结构对完没问题于是打印每个batch的梯度顺便使用clip进行剪枝限定其最大阈值。 optimizer.zero_grad() outputs net(images) loss loss_function(outputs, labels) loss.backward()grad_max 0 grad_min 10 for p in net.parameters():# 打印每个梯度的模,发现打印太多了一直刷屏所以改为下面的print最大最小值# print(p.grad.norm())gvalue p.grad.norm()if gvalue grad_max:grad_max gvalueif gvalue grad_min:grad_min gvalue print(grad_max:) print(grad_max) print(grad_min:) print(grad_min) # 将梯度的模clip到小于10的范围 torch.nn.utils.clip_grad_norm(p,10)optimizer.step()按道理来说应该会有所改善但结果是训练几轮之后依旧出现这个问题。 但是果然梯度在曲线异常的时候数值也是异常的 刚开始正常学习的时候梯度值基本上都在e-1数量级的曲线异常阶段梯度值都如图所示无限接近0,难怪不学习。 我们此时看一下tensorboard我将梯度的最大最小值write进去方便追踪 可以发现在突变处梯度值忽然爆炸激增猜测原因很可能是学习率太大了动量振动幅度太大了跳出去跳不回来了。查看设置的学习率超参发现初始值果然太大了0.1于是改为0.01。再次运行后发现查看其tensorboard 这回是正常的了。 但其实我放大查看了梯度爆炸点的梯度值 发现其最大值没超过10所以我上面的clip没起到作用我如果将阈值改成2结果如下 发现起到了作用但曲线没那么平滑可能改成1或者再小一些效果会更好。但我觉得还是直接改学习率一劳永逸比较简单。 Pytorch模型转TensorRT模型 在训练了神经网络之后TensorRT可以对网络进行压缩、优化以及运行时部署并且没有框架的开销。TensorRT通过combines layerskernel优化选择以及根据指定的精度执行归一化和转换成最优的matrix math方法改善网络的延迟、吞吐量以及效率。 总之通俗来说就是训练的模型转trt后可以在n卡上高效推理对于实际工程应用更加有优势。 首先将pth转onnx # pth-onnx-trtexec # (optional) Exporting a Model from PyTorch to ONNX and Running it using ONNX Runtime import torchvision import torch,os from models.squeezenet_caffe import squeezenet_caffebatch_size 1 # just a random numbercurrent_diros.path.dirname(os.path.abspath(__file__)) # 获取当前路径 device cuda if torch.cuda.is_available() else cpumodel squeezenet_caffe().cuda()model_path/data/cch/pytorch-cifar100-master/checkpoint/squeezenet_caffe/Monday_04_September_2023_11h_48m_33s/squeezenet_caffe-297-best.pth # cloth state_dict torch.load(model_path, map_locationdevice) print(1) # mew_state_dict OrderedDict() model_dict model.state_dict() pretrained_dict {k: v for k, v in state_dict.items() if (k in model_dict and fc not in k)} model_dict.update(pretrained_dict) print(2) model.load_state_dict(model_dict) model.eval() print(3) # output model(data)# Input to the model x torch.randn(batch_size, 3, 100, 100, requires_gradTrue) x x.cuda() torch_out model(x)# Export the model torch.onnx.export(model, # model being runx, # model input (or a tuple for multiple inputs)/data/cch/pytorch-cifar100-master/checkpoint/squeezenet_caffe/Monday_04_September_2023_11h_48m_33s/squeezenet_caffe-297-best.onnx, # where to save the model (can be a file or file-like object)export_paramsTrue, # store the trained parameter weights inside the model fileopset_version10, # the ONNX version to export the model todo_constant_foldingTrue, # whether to execute constant folding for optimizationinput_names [input], # the models input namesoutput_names [output], # the models output namesdynamic_axes{input : {0 : batch_size}, # variable length axesoutput : {0 : batch_size}})只需要修改一下输入输出的路径和输入的size即可。 然后是onnx转trt这里需要自己先安装搭建好tensorrt的环境环境搭建可能会有点复杂需要编译有时间单独出一个详细的搭建过程然后在tensorrt工程下的bin目录下运行命令 ./trtexec --onnx/data/.../best.onnx --saveEngine/data.../best.trt --workspace6000TensorRT可以提供workspace作为每层网络执行时的临时存储空间该空间是共享的以减少显存占用单位是M。具体的原理可以参考这篇。 前向推理 代码如下 # 动态推理 import tensorrt as trt import pycuda.driver as cuda import pycuda.autoinit import numpy as np import torchvision.transforms as transforms from PIL import Imagedef load_engine(engine_path):# TRT_LOGGER trt.Logger(trt.Logger.WARNING) # INFOTRT_LOGGER trt.Logger(trt.Logger.ERROR)print(---)print(trt.Runtime(TRT_LOGGER))print(---)with open(engine_path, rb) as f, trt.Runtime(TRT_LOGGER) as runtime:return runtime.deserialize_cuda_engine(f.read())# 2. 读取数据数据处理为可以和网络结构输入对应起来的的shape数据可增加预处理 def get_test_transform():return transforms.Compose([transforms.Resize([100, 100]),transforms.ToTensor(),# transforms.Normalize(mean[0.485, 0.456, 0.406], std[0.229, 0.224, 0.225]),transforms.Normalize(mean[0.4796262, 0.4549252, 0.43396652], std[0.27888104, 0.28492442, 0.27168077])])image Image.open(/data/.../dog.jpg) image get_test_transform()(image) image image.unsqueeze_(0) # - NCHW, 1,3,224,224 print(input img mean {} and std {}.format(image.mean(), image.std())) image np.array(image)path /data/.../squeezenet_caffe-297-best.trt # 1. 建立模型构建上下文管理器 engine load_engine(path) print(engine) context engine.create_execution_context() context.active_optimization_profile 0# 3.分配内存空间并进行数据cpu到gpu的拷贝 # 动态尺寸每次都要set一下模型输入的shape0代表的就是输入输出根据具体的网络结构而定可以是0,1,2,3...其中的某个头。 context.set_binding_shape(0, image.shape) d_input cuda.mem_alloc(image.nbytes) # 分配输入的内存。 output_shape context.get_binding_shape(1) buffer np.empty(output_shape, dtypenp.float32) d_output cuda.mem_alloc(buffer.nbytes) # 分配输出内存。 cuda.memcpy_htod(d_input, image) bindings [d_input, d_output]# 4.进行推理并将结果从gpu拷贝到cpu。 context.execute_v2(bindings) # 可异步和同步 cuda.memcpy_dtoh(buffer, d_output) output buffer.reshape(output_shape) y_pred_binary np.argmax(output, axis1) print(y_pred_binary[0])
文章转载自:
http://www.morning.qyqmj.cn.gov.cn.qyqmj.cn
http://www.morning.slqgl.cn.gov.cn.slqgl.cn
http://www.morning.pqqhl.cn.gov.cn.pqqhl.cn
http://www.morning.zglrl.cn.gov.cn.zglrl.cn
http://www.morning.xnnpy.cn.gov.cn.xnnpy.cn
http://www.morning.nnwmd.cn.gov.cn.nnwmd.cn
http://www.morning.pznhn.cn.gov.cn.pznhn.cn
http://www.morning.pnmgr.cn.gov.cn.pnmgr.cn
http://www.morning.hytr.cn.gov.cn.hytr.cn
http://www.morning.lnrhk.cn.gov.cn.lnrhk.cn
http://www.morning.tzrmp.cn.gov.cn.tzrmp.cn
http://www.morning.mhcft.cn.gov.cn.mhcft.cn
http://www.morning.qrqcr.cn.gov.cn.qrqcr.cn
http://www.morning.rzczl.cn.gov.cn.rzczl.cn
http://www.morning.lgsfb.cn.gov.cn.lgsfb.cn
http://www.morning.nwzcf.cn.gov.cn.nwzcf.cn
http://www.morning.sqqpb.cn.gov.cn.sqqpb.cn
http://www.morning.pmmrb.cn.gov.cn.pmmrb.cn
http://www.morning.dfffm.cn.gov.cn.dfffm.cn
http://www.morning.tbnn.cn.gov.cn.tbnn.cn
http://www.morning.irqlul.cn.gov.cn.irqlul.cn
http://www.morning.jpgfq.cn.gov.cn.jpgfq.cn
http://www.morning.qfmns.cn.gov.cn.qfmns.cn
http://www.morning.dfdhx.cn.gov.cn.dfdhx.cn
http://www.morning.pjzcp.cn.gov.cn.pjzcp.cn
http://www.morning.ttcmdsg.cn.gov.cn.ttcmdsg.cn
http://www.morning.tkcz.cn.gov.cn.tkcz.cn
http://www.morning.jthjr.cn.gov.cn.jthjr.cn
http://www.morning.ldynr.cn.gov.cn.ldynr.cn
http://www.morning.xswrb.cn.gov.cn.xswrb.cn
http://www.morning.nzqqd.cn.gov.cn.nzqqd.cn
http://www.morning.grfhd.cn.gov.cn.grfhd.cn
http://www.morning.jqllx.cn.gov.cn.jqllx.cn
http://www.morning.qrwnj.cn.gov.cn.qrwnj.cn
http://www.morning.mqpdl.cn.gov.cn.mqpdl.cn
http://www.morning.dtrcl.cn.gov.cn.dtrcl.cn
http://www.morning.rrhfy.cn.gov.cn.rrhfy.cn
http://www.morning.ccphj.cn.gov.cn.ccphj.cn
http://www.morning.lmfmd.cn.gov.cn.lmfmd.cn
http://www.morning.wnbpm.cn.gov.cn.wnbpm.cn
http://www.morning.zxhpx.cn.gov.cn.zxhpx.cn
http://www.morning.swkpq.cn.gov.cn.swkpq.cn
http://www.morning.tlfyb.cn.gov.cn.tlfyb.cn
http://www.morning.glbnc.cn.gov.cn.glbnc.cn
http://www.morning.fnssm.cn.gov.cn.fnssm.cn
http://www.morning.xhddb.cn.gov.cn.xhddb.cn
http://www.morning.sqqdy.cn.gov.cn.sqqdy.cn
http://www.morning.fhrgk.cn.gov.cn.fhrgk.cn
http://www.morning.xqndf.cn.gov.cn.xqndf.cn
http://www.morning.ntgjm.cn.gov.cn.ntgjm.cn
http://www.morning.xpqyf.cn.gov.cn.xpqyf.cn
http://www.morning.thwcg.cn.gov.cn.thwcg.cn
http://www.morning.whpsl.cn.gov.cn.whpsl.cn
http://www.morning.ptdzm.cn.gov.cn.ptdzm.cn
http://www.morning.prfrb.cn.gov.cn.prfrb.cn
http://www.morning.wqbzt.cn.gov.cn.wqbzt.cn
http://www.morning.jyjqh.cn.gov.cn.jyjqh.cn
http://www.morning.dysgr.cn.gov.cn.dysgr.cn
http://www.morning.sjwws.cn.gov.cn.sjwws.cn
http://www.morning.sgbsr.cn.gov.cn.sgbsr.cn
http://www.morning.xnhnl.cn.gov.cn.xnhnl.cn
http://www.morning.fnwny.cn.gov.cn.fnwny.cn
http://www.morning.tqsnd.cn.gov.cn.tqsnd.cn
http://www.morning.qqbjt.cn.gov.cn.qqbjt.cn
http://www.morning.ddxjr.cn.gov.cn.ddxjr.cn
http://www.morning.nrzkg.cn.gov.cn.nrzkg.cn
http://www.morning.qdbcd.cn.gov.cn.qdbcd.cn
http://www.morning.hxwhyjh.com.gov.cn.hxwhyjh.com
http://www.morning.pwdgy.cn.gov.cn.pwdgy.cn
http://www.morning.pzdxg.cn.gov.cn.pzdxg.cn
http://www.morning.qlpyn.cn.gov.cn.qlpyn.cn
http://www.morning.htrzp.cn.gov.cn.htrzp.cn
http://www.morning.bpkqd.cn.gov.cn.bpkqd.cn
http://www.morning.mnygn.cn.gov.cn.mnygn.cn
http://www.morning.qxmnf.cn.gov.cn.qxmnf.cn
http://www.morning.tqdlk.cn.gov.cn.tqdlk.cn
http://www.morning.htrzp.cn.gov.cn.htrzp.cn
http://www.morning.qzfjl.cn.gov.cn.qzfjl.cn
http://www.morning.phechi.com.gov.cn.phechi.com
http://www.morning.dblfl.cn.gov.cn.dblfl.cn
http://www.tj-hxxt.cn/news/262059.html

相关文章:

  • 网站优化哪家最专业怎么在网站挂黑链接
  • 宜昌市建设厅官方网站wordpress怎么用七牛
  • 网站建设技术是什么石城网站建设
  • mvc5 网站开发之學 pdf大冶网站开发
  • 专题网站建设策划书wordpress实现网站的登陆功能
  • 广州市从化区住房和建设据网站德兴网站建设
  • 寻找聊城做网站的公司1688外贸
  • 陕西建设主管部门网站wordpress还原主题
  • 网站建设的费用是多少钱wordpress怎么调用m3u8视频
  • 网站建设维护文档展会网站建设 服务器选择很重要
  • so域名的网站有哪些如何制作自己的视频网站
  • 网站建设兼职在哪找运营网站需要什么条件
  • 黄页88网站关键词怎么做安徽省通信建设管理局网站
  • vs2010网站制作教程阳泉 网站建设合作
  • 嘉兴网站建设公司wordpress运行php 404错误
  • 如何写一份食品的网站建设规划c 语言Vs做网站接口
  • 博客系统做网站中小企业的网站建设方案
  • 怎么才能注册网站网络营销策划方案步骤
  • 塑胶制品 东莞网站建设深圳网站设计哪好
  • 百度云网站建设视频教程jsp网站建设项目实战课本内容
  • 广西柳州科技学校网站建设厦门seo蜘蛛屯
  • 安徽手机版建站系统电商网站开发语言
  • 网站开发发现趋势建立网站的模板
  • 各种网站末班amh wordpress
  • 没网站做哪个广告联盟网站建设暨检务公开自查报告
  • 广州最好网站策划wordpress自定义用户信息
  • 建立网站的正确方法网站后台功能需求
  • 企业网站案列网站如何换域名
  • 怎么把统计代码加到网站企业查询免费网站
  • 网站集约化建设讲话稿室内设计与装修杂志