当前位置: 首页 > news >正文

网站开发与设计培训的就业前景重庆网站备案查询系统

网站开发与设计培训的就业前景,重庆网站备案查询系统,中国电子科技集团有限公司,该怎么做网站编辑主要做什么计算机视觉和图像处理 Tensorflow入门深度神经网络图像分类目标检测图像分割 图像分割 一、目标分割1.1 图像分割的定义1.2 任务类型1.2.1 任务描述1.2.2 任务类型 二、语义分割2.1 FCN网络2.1.1网络结构 2.2 Unet网络 三、UNet案例3.1 数据集获取3.1.1 设置相关信息3.1.2 图像…计算机视觉和图像处理 Tensorflow入门深度神经网络图像分类目标检测图像分割 图像分割 一、目标分割1.1 图像分割的定义1.2 任务类型1.2.1 任务描述1.2.2 任务类型 二、语义分割2.1 FCN网络2.1.1网络结构 2.2 Unet网络 三、UNet案例3.1 数据集获取3.1.1 设置相关信息3.1.2 图像展示3.1.3 数据集生成器 3.2 模型构建3.2.1 编码部分3.2.2 解码部分3.2.3 模型构建 3.3 模型训练3.3.1 数据集划分3.3.2 数据获取3.3.3 模型编译3.3.4 模型训练 3.4 模型预测 一、目标分割 图像分类旨在判断该图像所属类别目标检测是在图像分类的基础上进一步判断图像中的目标具体在图像的什么位置通常是以外包矩阵的形式表示。图像分割是目标检测更进阶的任务目标检测只需要框出每个目标的包围盒语义分割需要进一步判断图像中哪些像素属于哪个目标。但是语义分割不区分属于相同类别的不同实例。 1.1 图像分割的定义 在计算机视觉领域图像分割指的是将数字图像细分为多个图像子区域像素的集合的过程并且同一个子区域内的特征具有一定相似性不同子区域的特征呈现较为明显的差异。 1.2 任务类型 1.2.1 任务描述 我们的目标是输入一个RGB彩色图片或者一个灰度图然后输出一个包含各个像素类别标签的分割图。 预测目标可以采用one-hot编码即为每一个可能的类创建一个输出通道。通过取每个像素点在各个通道的argmax可以得到最终的预测分割图。 1.2.2 任务类型 目前的图像分割任务主要有两类 语义分割和实例分割 语义分割就是把图像中每个像素赋予一个类别标签 实例分割相对于语义分割来讲不仅要区分不同类别的像素还需要需要对同一类别的不同个体进行区分。如下图所示不仅需要进行类别的划分还要将各个个体划分出来羊1羊2羊3羊4羊5等。 二、语义分割 2.1 FCN网络 FCN用于图像语义分割自从该网络提出后就成为语义分割的基本框架后续算法基本都是在该网络框架中改进而来。 简而言之FCN和CNN的区别就是CNN卷积层之后连接的是全连接层FCN卷积层之后仍然连卷积层输出的是与输入大小相同的特征图。 2.1.1网络结构 FCN是一个端到端像素对像素的全卷积网络用于进行图像的语义分割。整体的网络结构分为两个部分全卷积部分和上采样部分。 全卷积部分 全卷积部分使用经典的CNN网络(以AlexNet网络为例)并把最后的全连接层换成1x1卷积用于特征提取。上采用部分 上采样部分将最终得到的特征图上采样得到原图像大小的语义分割结果。 在这里采用的上卷积方法是反卷积也叫转置卷积反卷积是一种特殊的正向卷积通俗的讲就是输入补0卷积。先按照一定的比例通过补0来扩大输入图像的尺寸再进行正向卷积即可。 2.2 Unet网络 Unet网络是建立再FCNN网络基础上的。 整个网络由编码部分(左)和解码部分(右)组成类似于一个大大的u字母具体介绍如下 1.编码部分是典型的卷积网络架构 编码部分的主要功能是提取输入图像的特征。通过一系列的卷积层和池化层通常是最大池化层编码部分逐渐减少特征图的尺寸同时增加特征图的深度即特征图的数量。 架构中含有一种重复结构每次重复中有2个3x3卷积层、非线性ReLU层和一个2x2 max pooling层(stride为2)。每一次下采样后我们都把特征通道的数量加倍。 下采样编码部分减少数据点的数量或降低数据的分辨率用于减少数据量、简化模型训练等 解码部分也使用了类似的模式 解码部分的主要功能是恢复特征图的空间分辨率最终生成与输入图像相同尺寸的分割结果。解码部分通过一系列的上采样操作如转置卷积或上采样层和卷积操作来逐步恢复特征图的尺寸。 每一步都首先使用反卷积每次使用反卷积都将特征通道数量减半特征图大小加倍。反卷积过后将反卷积的结果与编码部分中对应步骤的特征图拼接起来。编码部分中的特征图尺寸稍大将其修建过后进行拼接。对拼接后的map再进行2次3x3的卷积。最后一层的卷积核大小为1x1将64通道的特征图转化为特定类比数量的结果。 上采样解码部分增加数据点的数量或提高数据的分辨率用于恢复细节、改善图像质量等。 三、UNet案例 Oxford-IIIT Pet Dataset宠物图像分割数据集包含37种宠物类别其中有12种猫的类别和25种狗的类别每个类别大约有200张图片所有图像都具有品种头部ROI和像素级分割的标注如下图所示 import os from IPython.display import Image,display from tensorflow.keras.preprocessing.image import load_img import PIL from PIL import ImageOps3.1 数据集获取 3.1.1 设置相关信息 # 图像位置 input_dir segdata/images/# 图像路径 input_img_path sorted([os.path.join(input_dir,fname) for fname in os.listdir(input_dir) if fname.endswith(jpg)])input_img_path# 标注信息 target_dir segdata/annotations/trimaps/# 目标值 target_img_path sorted([os.path.join(target_dir,fname) for fname in os.listdir(target_dir) if fname.endswith(png) and not fname.startswith(.)])target_img_path# 图像大小及类别信息 img_size (160,160) batch_size 32 num_classes 43.1.2 图像展示 display(Image(input_img_path[10]))img PIL.ImageOps.autocontrast(load_img(target_img_path[10]))display(img)3.1.3 数据集生成器 from tensorflow import keras import numpy as np# 数据集获取类 class OxfordPets(keras.utils.Sequence):# 初始化def __init__(self,batch_size,img_size,input_img_path,target_img_path):self.batch_size batch_sizeself.img_size img_sizeself.input_img_path input_img_pathself.target_img_path target_img_path# 迭代次数def __len__(self):return len(self.target_img_path)//self.batch_size # 或者batch数据def __getitem__(self,idx):# 当前批次对应的索引值i idx * self.batch_size# 图像数据batch_input_img_path self.input_img_path[i:iself.batch_size]# 标签数据batch_target_img_path self.target_img_path[i:iself.batch_size]# 构建送入网络中图像数据x np.zeros((self.batch_size,)self.img_size(3,),dtypefloat32)for j,path in enumerate(batch_input_img_path):img load_img(path,target_sizeself.img_size)# 将PIL图像对象转换成Numpy数组x[j] keras.preprocessing.image.img_to_array(img)y np.zeros((self.target_size,) self.img_size (1,),dtypeuint8)for j,path in enumerate(batch_target_img_path):img load_img(path,target_sizeself.img_size,color_modegrayscale)# 再数组的末尾增加一个维度y[j] np.expand_dims(img,2)return x,y3.2 模型构建 import tensorflow as tf import tensorflow.keras as keras from tensorflow.keras.layers import Input,Conv2D,Conv2DTranspose from tensorflow.keras.layers import MaxPooling2D,Cropping2D,Concatenate,ZeroPadding2D from tensorflow.keras.layers import Lambda,Activation,BatchNormalization,Dropout from tensorflow.keras.models import Model3.2.1 编码部分 # 下采样输出张量卷积核个数 def downsampling_block(input_tensor,filters):# 输入层x Conv2D(filters,kernel_size(3,3),paddingsame)(input_tensor)# BN层x BatchNormalization()(x)# 激活层x Activation(relu)(x)# 卷积x Conv2D(filters,kernel_size(3,3),paddingsame)(x)# BN层x BatchNormalization()(x)# 激活层x Activation(relu)(x)# 返回return MaxPooling2D(pool_size(2,2))(x),x3.2.2 解码部分 # 上采样输入张量特征融合张量(编码部分产生的特征图),卷积核个数 def upsampling_block(input_tensor,skip_tensor,filters):# 反卷积x Conv2DTranspose(filters,kernel_size(3,3),strides2,paddingsame)(input_tensor)# 获取当前特征图的尺寸_,x_hight,x_width,_ x.shape# 获取特征融合图的尺寸_,s_hight,s_width,_ skip_tensor.shape# 获取特征图大小差异h_crop x_hight - s_hightw_crop x_width - s_width# 若特征图大小相同则不进行裁剪if h_crop 0 and w_crop 0:y skip_tensorelse:cropping ((h_crop//2,h_crop-h_crop//2),(w_crop//2,w_crop-w_crop//2))y ZeroPadding2D(croppingcropping)(skip_tensor)# 特征融合x Concatenate()([x,y])# 卷积x Conv2D(filters,kernel_size(3,3),paddingsame)(x)# BN层x BatchNormalization()(x)# 激活层x Activation(relu)(x)# 卷积x Conv2D(filters,kernel_size(3,3),paddingsame)(x)# BN层x BatchNormalization()(x)# 激活层x Activation(relu)(x)return x 3.2.3 模型构建 def unet(imagesize,classes,fetures64,depth3):# 定义输入inputs keras.Input(shape(img_size)(3,))x inputs# ⽤来存放进⾏特征融合的特征图skips[]# 构建编码部分for i in range(depth):# 下采样x,x0 downsampling_block(x,fetures)skips.append(x0)# 特征翻倍fetures *2# 卷积x Conv2D(fetures,kernel_size(3,3),paddingsame)(x)# BN层x BatchNormalization()(x)# 激活层x Activation(relu)(x)# 卷积x Conv2D(fetures,kernel_size(3,3),paddingsame)(x)# BN层x BatchNormalization()(x)# 激活层x Activation(relu)(x)# 构建解码部分for i in reversed(range(depth)):# 深度增加特征图通道减半fetures // 2# 下采样x upsampling_block(x,skips[i],fetures)# 卷积x Conv2D(fetures,kernel_size(1,1),paddingsame)(x)# 激活outputs Activation(softmax)(x)# 模型定义model keras.Model(inputs,outputs)return modelmodel unet(img_size,4) model.summary()3.3 模型训练 3.3.1 数据集划分 import random# 验证集数量 val_sample 500 # 将数据集打乱 random.Random(100).shuffle(input_img_path) random.Random(100).shuffle(target_img_path) # 训练集 train_input_img_path input_img_path[:-val_sample] train_target_img_path target_img_path[:-val_sample] # 验证集 test_input_img_path input_img_path[-val_sample:] test_target_img_path target_img_path[-val_sample:]3.3.2 数据获取 train_gen OxfordPets(batch_size,img_size,train_input_img_path,train_target_img_path) test_gen OxfordPets(batch_size,img_size,test_input_img_path,test_target_img_path)3.3.3 模型编译 model.compile(optimizertf.keras.optimizers.RMSprop(),losstf.keras.losses.sparse_categorical_crossentropy)3.3.4 模型训练 model.fit(train_gen,epochs8,validation_datatest_gen,steps_per_epoch1,validation_steps1)3.4 模型预测 # predict model.predict(test_gen) predictions []# 获取数据集的大小 steps len(test_gen)# 分批进行预测 for i in range(steps):# 获取下一个批次的数据batch next(iter(test_gen))# batch 是一个元组第一个元素是输入数据第二个元素是标签batch_inputs, batch_labels batch# 使用输入数据进行预测batch_predictions model.predict(batch_inputs)predictions.append(batch_predictions)# 合并所有的预测结果 final_predictions np.concatenate(predictions, axis0)def display_mask(i):# 获取第i个样本预测结果mask np.argmax(final_predictions[i],axis-1)# 扩展维度mask np.expand_dims(mask,axis-1)# 将掩码转换为PIL Image对象img keras.preprocessing.image.array_to_img(mask)# 增强图像对比度img PIL.ImageOps.autocontrast(img)display(img)display(Image(filenametest_input_img_path[5]))img PIL.ImageOps.autocontrast(load_img(test_target_img_path[5])) display(img)display_mask(5)**这人工智能不学也罢没有个好电脑根本跑不出来只能降低epoch,降低batch_size,分批次去预测模型勉强可以训练预测模型但结果就有点不敬人意了
文章转载自:
http://www.morning.btblm.cn.gov.cn.btblm.cn
http://www.morning.pbdnj.cn.gov.cn.pbdnj.cn
http://www.morning.nrbqf.cn.gov.cn.nrbqf.cn
http://www.morning.dmzqd.cn.gov.cn.dmzqd.cn
http://www.morning.gjqgz.cn.gov.cn.gjqgz.cn
http://www.morning.twwts.com.gov.cn.twwts.com
http://www.morning.nlcw.cn.gov.cn.nlcw.cn
http://www.morning.mkzdp.cn.gov.cn.mkzdp.cn
http://www.morning.lgcqj.cn.gov.cn.lgcqj.cn
http://www.morning.bbmx.cn.gov.cn.bbmx.cn
http://www.morning.kqbwr.cn.gov.cn.kqbwr.cn
http://www.morning.srgsb.cn.gov.cn.srgsb.cn
http://www.morning.kpmxn.cn.gov.cn.kpmxn.cn
http://www.morning.tpbhf.cn.gov.cn.tpbhf.cn
http://www.morning.btrfm.cn.gov.cn.btrfm.cn
http://www.morning.mzbyl.cn.gov.cn.mzbyl.cn
http://www.morning.rwfj.cn.gov.cn.rwfj.cn
http://www.morning.thxfn.cn.gov.cn.thxfn.cn
http://www.morning.dbfj.cn.gov.cn.dbfj.cn
http://www.morning.hffpy.cn.gov.cn.hffpy.cn
http://www.morning.dwfzm.cn.gov.cn.dwfzm.cn
http://www.morning.trjdr.cn.gov.cn.trjdr.cn
http://www.morning.fbbmg.cn.gov.cn.fbbmg.cn
http://www.morning.lksgz.cn.gov.cn.lksgz.cn
http://www.morning.xnwjt.cn.gov.cn.xnwjt.cn
http://www.morning.gbrps.cn.gov.cn.gbrps.cn
http://www.morning.srkqs.cn.gov.cn.srkqs.cn
http://www.morning.gpfuxiu.cn.gov.cn.gpfuxiu.cn
http://www.morning.kqxwm.cn.gov.cn.kqxwm.cn
http://www.morning.frxsl.cn.gov.cn.frxsl.cn
http://www.morning.hfytgp.cn.gov.cn.hfytgp.cn
http://www.morning.qsyyp.cn.gov.cn.qsyyp.cn
http://www.morning.bpmtz.cn.gov.cn.bpmtz.cn
http://www.morning.jxscp.cn.gov.cn.jxscp.cn
http://www.morning.nqwkn.cn.gov.cn.nqwkn.cn
http://www.morning.hrrmb.cn.gov.cn.hrrmb.cn
http://www.morning.gqtzb.cn.gov.cn.gqtzb.cn
http://www.morning.ykshx.cn.gov.cn.ykshx.cn
http://www.morning.ltspm.cn.gov.cn.ltspm.cn
http://www.morning.rxwfg.cn.gov.cn.rxwfg.cn
http://www.morning.jwncx.cn.gov.cn.jwncx.cn
http://www.morning.cfynn.cn.gov.cn.cfynn.cn
http://www.morning.xkqjw.cn.gov.cn.xkqjw.cn
http://www.morning.rfycj.cn.gov.cn.rfycj.cn
http://www.morning.tbzcl.cn.gov.cn.tbzcl.cn
http://www.morning.rmqlf.cn.gov.cn.rmqlf.cn
http://www.morning.iznek.com.gov.cn.iznek.com
http://www.morning.yhwmg.cn.gov.cn.yhwmg.cn
http://www.morning.xnzmc.cn.gov.cn.xnzmc.cn
http://www.morning.hxhrg.cn.gov.cn.hxhrg.cn
http://www.morning.nrmyj.cn.gov.cn.nrmyj.cn
http://www.morning.gblrn.cn.gov.cn.gblrn.cn
http://www.morning.yzygj.cn.gov.cn.yzygj.cn
http://www.morning.ckzjl.cn.gov.cn.ckzjl.cn
http://www.morning.yzktr.cn.gov.cn.yzktr.cn
http://www.morning.lfgql.cn.gov.cn.lfgql.cn
http://www.morning.mglqf.cn.gov.cn.mglqf.cn
http://www.morning.dyxlj.cn.gov.cn.dyxlj.cn
http://www.morning.ljcf.cn.gov.cn.ljcf.cn
http://www.morning.ygbq.cn.gov.cn.ygbq.cn
http://www.morning.ryrpq.cn.gov.cn.ryrpq.cn
http://www.morning.ppwdh.cn.gov.cn.ppwdh.cn
http://www.morning.dnhdp.cn.gov.cn.dnhdp.cn
http://www.morning.qsszq.cn.gov.cn.qsszq.cn
http://www.morning.lmqfq.cn.gov.cn.lmqfq.cn
http://www.morning.gxeqedd.cn.gov.cn.gxeqedd.cn
http://www.morning.btns.cn.gov.cn.btns.cn
http://www.morning.knqzd.cn.gov.cn.knqzd.cn
http://www.morning.trplf.cn.gov.cn.trplf.cn
http://www.morning.ljzqb.cn.gov.cn.ljzqb.cn
http://www.morning.synlt.cn.gov.cn.synlt.cn
http://www.morning.xckdn.cn.gov.cn.xckdn.cn
http://www.morning.zdqsc.cn.gov.cn.zdqsc.cn
http://www.morning.hqgkx.cn.gov.cn.hqgkx.cn
http://www.morning.kjlia.com.gov.cn.kjlia.com
http://www.morning.rdlxh.cn.gov.cn.rdlxh.cn
http://www.morning.mldrd.cn.gov.cn.mldrd.cn
http://www.morning.zcckq.cn.gov.cn.zcckq.cn
http://www.morning.xnzmc.cn.gov.cn.xnzmc.cn
http://www.morning.smsjx.cn.gov.cn.smsjx.cn
http://www.tj-hxxt.cn/news/275313.html

相关文章:

  • 小程序代理多少钱深圳百度seo公司
  • 网站开发发展前景培训网站开发哪个好
  • 昆山规建设局网站温州专业营销网站制作
  • 建公司网站需要哪些资料网站需要服务器吗
  • 深圳网站搭建电话wordpress 模板 旅游
  • 做网站学什么万网影
  • 网站后台有什么用响应式设计的网页有哪些效果
  • 网站管理员后台手机端网站模板
  • 程序员帮人做黑彩网站广州万户网络科技有限公司
  • 海拉尔做网站的公司创意设计字体
  • 南宁手机企业网站定制wordpress keyshot
  • 如何自己做收费的视频网站网站被k换域名 老域名能不能跳转
  • 电子商务网站建设携程上海集团网站制作
  • 新乡做网站的公司有那些销售管理系统哪家好
  • 广安哪里有做网站的公司惠州网站建设哪家强
  • 微信开发 网站备案吗html5响应式模板
  • 网站建设报告心得体会小说网站收录了怎么做排名
  • 绵阳网站建站企业咨询管理公司简介
  • 网站建设就问山东聚搜网络f店面设计绘画
  • 做视频网站 视频放在哪里射击官网
  • 网站建设 设计方案 百度文库网站设计招标评标标准及办法
  • 淘宝客手机网站开发天元建设集团有限公司技术中心
  • 网站建设学什么语音电梯网站建设
  • 纺织服装网站建设规划方案动漫建模代做网站百度一下
  • 设计商业网站应该做到什么想学做网站学什么编程语言
  • 有没有便宜做网站的 我要做个江门网页制作
  • 泰兴市住房和建设局网站大庆互联网公司
  • 手机永久免费建站wordpress老文章
  • 高考写作网站网站建设税率多少
  • 视频解析wordpress镇江百度seo