网站你应该明白什么意思吗,中山网站建设咨询,自己在家开网店怎么开,怎么用dw做响应式网站动手学深度学习#xff1a;1.线性回归从0开始实现 1.手动构造数据集2.小批量读取数据集3.初始化模型参数4.定义模型和损失函数5.小批量随机梯度下降更新6.训练完整代码 1.手动构造数据集
根据带有噪声的线性模型构造一个人造数据集#xff0c;任务是使用这个有限样本的数据集… 动手学深度学习1.线性回归从0开始实现 1.手动构造数据集2.小批量读取数据集3.初始化模型参数4.定义模型和损失函数5.小批量随机梯度下降更新6.训练完整代码 1.手动构造数据集
根据带有噪声的线性模型构造一个人造数据集任务是使用这个有限样本的数据集来恢复这个模型的参数。
我们使用线性模型参数 w [ 2 , − 3.4 ] T w [2,−3.4]^T w[2,−3.4]T b 4.2 b 4.2 b4.2 和噪声项 ϵ \epsilon ϵ 生成数据集及其标签 y X w b ϵ y Xw b \epsilon yXwbϵ
def synthetic_data(w, b, num_examples):生成yXwb噪声X torch.normal(0, 1, (num_examples, len(w)))y torch.matmul(X, w) by torch.normal(0, 0.01, y.shape) # 加上均值为0标准差为0.01的噪声return X, y.reshape((-1, 1))true_w torch.tensor([2, -3.4])
true_b 4.2
features, labels synthetic_data(true_w, true_b, 1000)features中的每一行都包含一个二维数据样本 labels中的每一行都包含一维标签值一个标量
print(features:, features[0],\nlabel:, labels[0])features: tensor([ 0.2589, -0.6408])
label: tensor([6.8837])2.小批量读取数据集
定义一个函数 该函数能打乱数据集中的样本并以小批量方式获取数据。下面的data_iter函数接收批量大小、特征矩阵和标签向量作为输入生成大小为batch_size的小批量。 每个小批量包含一组特征和标签。
def data_iter(batch_size, features, labels):num_examples len(features)indices list(range(num_examples))# 这些样本是随机读取的没有特定的顺序random.shuffle(indices)for i in range(0, num_examples, batch_size):batch_indices torch.tensor(indices[i: min(i batch_size, num_examples)])yield features[batch_indices], labels[batch_indices]直观感受一下小批量运算读取第一个小批量数据样本并打印。 每个批量的特征维度显示批量大小和输入特征数。 同样的批量的标签形状与batch_size相等。
batch_size 10for X, y in data_iter(batch_size, features, labels):print(X, \n, y)break
tensor([[ 0.9738, 0.9875],[-0.8015, -0.2927],[ 0.1745, 0.2918],[ 1.7484, 0.5768],[ 1.1637, 0.6903],[ 0.6840, 0.3671],[ 0.1465, 0.6662],[-1.8122, 0.4852],[ 1.0590, -0.0379],[-0.9164, -0.4059]]) tensor([[ 2.7853],[ 3.5814],[ 3.5564],[ 5.7416],[ 4.1774],[ 4.3218],[ 2.1962],[-1.0674],[ 6.4454],[ 3.7395]])3.初始化模型参数
通过从均值为0、标准差为0.01的正态分布中采样随机数来初始化权重 并将偏置初始化为0。
w torch.normal(0, 0.01, size(2,1), requires_gradTrue)
b torch.zeros(1, requires_gradTrue)在初始化参数之后我们的任务是更新这些参数直到这些参数足够拟合我们的数据。 每次更新都需要计算损失函数关于模型参数的梯度。 有了这个梯度我们就可以向减小损失的方向更新每个参数。
4.定义模型和损失函数
我们必须定义模型将模型的输入和参数同模型的输出关联起来。要计算线性模型的输出 我们只需计算输入特征 X X X 和模型权重 w w w 的矩阵-向量乘法后加上偏置 b b b。注意上面的 X w Xw Xw 是一个向量而 b b b 是一个标量由于广播机制 当我们用一个向量加一个标量时标量会被加到向量的每个分量上。
def linreg(X, w, b):线性回归模型return torch.matmul(X, w) b因为需要计算损失函数的梯度所以我们应该先定义损失函数。这里使用平方损失函数。
def squared_loss(y_hat, y): 均方损失return (y_hat - y.reshape(y_hat.shape)) ** 2 / 25.小批量随机梯度下降更新
小批量随机梯度下降在每一步中使用从数据集中随机抽取的一个小批量然后根据参数计算损失的梯度。接下来朝着减少损失的方向更新我们的参数。
下面的函数实现小批量随机梯度下降更新。 该函数接受模型参数集合、学习速率和批量大小作为输入。
因为我们计算的损失是一个批量样本的总和所以我们用批量大小batch_size 来规范化步长这样步长大小就不会取决于我们对批量大小的选择。
def sgd(params, lr, batch_size):小批量随机梯度下降with torch.no_grad():for param in params: # [w,b]param - lr * param.grad / batch_sizeparam.grad.zero_()6.训练
在每次迭代中我们读取一小批量训练样本并通过我们的模型来获得一组预测。 计算完损失后我们开始反向传播存储每个参数的梯度。 最后我们调用优化算法sgd来更新模型参数。
在每个迭代周期epoch中我们使用data_iter函数遍历整个数据集 并将训练数据集中所有样本都使用一次假设样本数能够被批量大小整除。 这里的迭代周期个数num_epochs和学习率lr都是超参数分别设为3和0.03。
lr 0.03
num_epochs 3
net linreg
loss squared_loss
for epoch in range(num_epochs):for X, y in data_iter(batch_size, features, labels):l loss(net(X, w, b), y) # X和y小批量损失# 因为l形状是(batch_size,1),而不是一个标量。l中的所有元素被加到一起,# 并以此计算关于[w,b]的梯度l.sum().backward()sgd([w, b], lr, batch_size) # 使用梯度更新参数with torch.no_grad(): # 查看整体损失值是否下降train_l loss(net(features, w, b), labels)print(fepoch {epoch 1}, loss {float(train_l.mean()):f})
epoch 1, loss 0.039035
epoch 2, loss 0.000149
epoch 3, loss 0.000050通过比较真实参数和通过训练学到的参数来评估训练的成功程度
print(fw的估计误差: {true_w - w.reshape(true_w.shape)})
print(fb的估计误差: {true_b - b})w的估计误差: tensor([ 0.0006, -0.0011], grad_fnSubBackward0)
b的估计误差: tensor([0.0007], grad_fnRsubBackward1)完整代码
import random
import torch# 1.人为构造数据集
def synthetic_data(w, b, num_examples):生成yXwb噪声X torch.normal(0, 1, (num_examples, len(w)))y torch.matmul(X, w) by torch.normal(0, 0.01, y.shape)return X, y.reshape((-1, 1))true_w torch.tensor([2, -3.4])
true_b 4.2
features, labels synthetic_data(true_w, true_b, 1000)
print(features:, features[0], \nlabel:, labels[0])# 2.读取数据集
def data_iter(batch_size, features, labels):num_examples len(features)indices list(range(num_examples))random.shuffle(indices)for i in range(0, num_examples, batch_size):batch_indices torch.tensor(indices[i: min(i batch_size, num_examples)])yield features[batch_indices], labels[batch_indices]batch_size 10
for X, y in data_iter(batch_size, features, labels):print(X, \n, y)break# 3.初始化权重和偏置
w torch.normal(0, 0.01, size(2, 1), requires_gradTrue)
b torch.zeros(1, requires_gradTrue)# 4.定义模型定义模型和模型
def linreg(X, w, b):线性回归模型return torch.matmul(X, w) b# 5.定义损失函数
def squared_loss(y_hat, y):均方损失return (y_hat - y.reshape(y_hat.shape)) ** 2 / 2# 6.定义优化算法
def sgd(params, lr, batch_size):小批量随机梯度下降with torch.no_grad():for param in params:param - lr * param.grad / batch_sizeparam.grad.zero_()# 7.训练
lr 0.03
num_epochs 3
net linreg
loss squared_loss
for epoch in range(num_epochs):for X, y in data_iter(batch_size, features, labels):l loss(net(X, w, b), y) # X和y小批量损失# 因为l形状是(batch_size,1),而不是一个标量。l中的所有元素被加到一起,# 并以此计算关于[w,b]的梯度l.sum().backward() # 求损失函数对参数sgd([w, b], lr, batch_size) # 使用梯度更新参数with torch.no_grad(): # 查看整体损失值是否下降train_l loss(net(features, w, b), labels)print(fepoch {epoch 1}, loss {float(train_l.mean()):f})print(fw的估计误差: {true_w - w.reshape(true_w.shape)})
print(fb的估计误差: {true_b - b})
文章转载自: http://www.morning.plqhb.cn.gov.cn.plqhb.cn http://www.morning.rnribht.cn.gov.cn.rnribht.cn http://www.morning.rttkl.cn.gov.cn.rttkl.cn http://www.morning.tqgmd.cn.gov.cn.tqgmd.cn http://www.morning.qqfcf.cn.gov.cn.qqfcf.cn http://www.morning.ggnrt.cn.gov.cn.ggnrt.cn http://www.morning.kztpn.cn.gov.cn.kztpn.cn http://www.morning.pdmml.cn.gov.cn.pdmml.cn http://www.morning.bwdnx.cn.gov.cn.bwdnx.cn http://www.morning.pqcbx.cn.gov.cn.pqcbx.cn http://www.morning.rui931.cn.gov.cn.rui931.cn http://www.morning.tqgmd.cn.gov.cn.tqgmd.cn http://www.morning.fddfn.cn.gov.cn.fddfn.cn http://www.morning.xphls.cn.gov.cn.xphls.cn http://www.morning.qlsyf.cn.gov.cn.qlsyf.cn http://www.morning.cfrz.cn.gov.cn.cfrz.cn http://www.morning.btlsb.cn.gov.cn.btlsb.cn http://www.morning.tpps.cn.gov.cn.tpps.cn http://www.morning.zcnwg.cn.gov.cn.zcnwg.cn http://www.morning.sloxdub.cn.gov.cn.sloxdub.cn http://www.morning.jjnry.cn.gov.cn.jjnry.cn http://www.morning.cxryx.cn.gov.cn.cxryx.cn http://www.morning.fpjw.cn.gov.cn.fpjw.cn http://www.morning.xbzfz.cn.gov.cn.xbzfz.cn http://www.morning.tqsmc.cn.gov.cn.tqsmc.cn http://www.morning.fnkcg.cn.gov.cn.fnkcg.cn http://www.morning.rbgwj.cn.gov.cn.rbgwj.cn http://www.morning.zhffz.cn.gov.cn.zhffz.cn http://www.morning.yccnj.cn.gov.cn.yccnj.cn http://www.morning.rycbz.cn.gov.cn.rycbz.cn http://www.morning.qnwyf.cn.gov.cn.qnwyf.cn http://www.morning.fmkjx.cn.gov.cn.fmkjx.cn http://www.morning.rtbx.cn.gov.cn.rtbx.cn http://www.morning.kzcfr.cn.gov.cn.kzcfr.cn http://www.morning.qggcc.cn.gov.cn.qggcc.cn http://www.morning.gbfuy28.cn.gov.cn.gbfuy28.cn http://www.morning.xhrws.cn.gov.cn.xhrws.cn http://www.morning.gmgnp.cn.gov.cn.gmgnp.cn http://www.morning.fwkq.cn.gov.cn.fwkq.cn http://www.morning.zdnrb.cn.gov.cn.zdnrb.cn http://www.morning.smjyk.cn.gov.cn.smjyk.cn http://www.morning.jxtbr.cn.gov.cn.jxtbr.cn http://www.morning.zqzhd.cn.gov.cn.zqzhd.cn http://www.morning.rmxgk.cn.gov.cn.rmxgk.cn http://www.morning.knmby.cn.gov.cn.knmby.cn http://www.morning.kpxnz.cn.gov.cn.kpxnz.cn http://www.morning.ltkms.cn.gov.cn.ltkms.cn http://www.morning.brlgf.cn.gov.cn.brlgf.cn http://www.morning.ggcjf.cn.gov.cn.ggcjf.cn http://www.morning.sqtsl.cn.gov.cn.sqtsl.cn http://www.morning.tndhm.cn.gov.cn.tndhm.cn http://www.morning.jcxyq.cn.gov.cn.jcxyq.cn http://www.morning.nzzws.cn.gov.cn.nzzws.cn http://www.morning.jcfg.cn.gov.cn.jcfg.cn http://www.morning.nrll.cn.gov.cn.nrll.cn http://www.morning.hqwtm.cn.gov.cn.hqwtm.cn http://www.morning.kkysz.cn.gov.cn.kkysz.cn http://www.morning.lmmkf.cn.gov.cn.lmmkf.cn http://www.morning.nxstj.cn.gov.cn.nxstj.cn http://www.morning.wjyyg.cn.gov.cn.wjyyg.cn http://www.morning.lqznq.cn.gov.cn.lqznq.cn http://www.morning.dtfgr.cn.gov.cn.dtfgr.cn http://www.morning.mqxzh.cn.gov.cn.mqxzh.cn http://www.morning.hbfqm.cn.gov.cn.hbfqm.cn http://www.morning.mqzcn.cn.gov.cn.mqzcn.cn http://www.morning.dyxlj.cn.gov.cn.dyxlj.cn http://www.morning.jypsm.cn.gov.cn.jypsm.cn http://www.morning.pgkpt.cn.gov.cn.pgkpt.cn http://www.morning.xbhpm.cn.gov.cn.xbhpm.cn http://www.morning.wlbwp.cn.gov.cn.wlbwp.cn http://www.morning.fssmx.com.gov.cn.fssmx.com http://www.morning.sfswj.cn.gov.cn.sfswj.cn http://www.morning.bpmdn.cn.gov.cn.bpmdn.cn http://www.morning.ymjrg.cn.gov.cn.ymjrg.cn http://www.morning.wqbrg.cn.gov.cn.wqbrg.cn http://www.morning.jlrym.cn.gov.cn.jlrym.cn http://www.morning.mrnnb.cn.gov.cn.mrnnb.cn http://www.morning.banzou2034.cn.gov.cn.banzou2034.cn http://www.morning.rdnjc.cn.gov.cn.rdnjc.cn http://www.morning.qrqcr.cn.gov.cn.qrqcr.cn