news 2026/3/24 6:06:15

【李沐 | 动手实现深度学习】9-2 Pytorch神经网络基础

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
【李沐 | 动手实现深度学习】9-2 Pytorch神经网络基础

前面整理了第5章的前半部分可以移步m【李沐 | 动手实现深度学习】9-1 Pytorch神经网络基础

下面是后半部分。

3 自定义层

前面我们深刻感受到了深度学习神经网络的灵活性:我们可以创造性地组合不同的层/块,从而设计出适用于目标任务的架构。有些情况下,我们可能要自己“Create”一个高级API没有提供的层,下面我们来看如何构建自定义层。

3.1 自定义无参数的层

我们自定义的CenteredLayer 在__init__中仅完成了父类的初始化,没有通过sefl.xxx的方式定义任何参数;其前向传播→从输入中减去均值。

import torch import torch.nn.functional as F from torch import nn class CenteredLayer(nn.Module): def __init__(self): super().__init__() def forward(self, X): return X - X.mean()

我们看看它能否按预期工作。

layer = CenteredLayer() layer(torch.FloatTensor([1, 2, 3, 4, 5]))

//输出示例:可以看到CenteredLayer()如期完成了工作

现在将层作为组件合并到构建更复杂的模型中,我们向该网络传入随机数据,检查均值是否为0。

net = nn.Sequential(nn.Linear(8, 128), CenteredLayer()) Y = net(torch.rand(4, 8)) Y.mean()

//输出示例:可以看到均值为0,由于处理的是浮点数,由于精度的原因看到是一个非常小的非零数

3.2 自定义带参数的层

在MyLinear()的初始化函数中:使用nn.Parameter封装了两个torch.randn(随机正态分布)初始化的张量:self.weightself.bias。

前向传播实现了线性变换 Y = XW + B 随后接上 ReLU 激活函数

注意:

  • 当在forward函数中使用.data时,实质上是在告诉 PyTorch:“这次计算中,把self.weightself.bias看作普通的、不参与梯度追踪的常量。”
  • 尽管参数的requires_grad属性仍然是True,但在这次特定的前向计算中,它们被当作非可训练张量使用,导致模型无法学习和更新参数
class MyLinear(nn.Module): def __init__(self, in_units, units): super().__init__() # in_units-输入单元数,units-输出的特征数量 self.weight = nn.Parameter(torch.randn(in_units, units)) self.bias = nn.Parameter(torch.randn(units,)) def forward(self, X): linear = torch.matmul(X, self.weight.data) + self.bias.data return F.relu(linear)

下面我们实例化MyLinear类并访问其模型参数。

我们可以使用自定义层直接执行前向传播计算。

使用自定义层构建模型。

4 读写文件

有时候我们希望将训练好的参数保存下载复用到其他场景,怎么做呢?此外,当运行一个耗时较长的训练过程时, 最佳的做法是定期保存中间结果, 以确保在服务器电源被不小心断掉时,我们不会损失几天的计算结果。

4.1 加载和保存张量

import torch from torch import nn from torch.nn import functional as F x = torch.arange(4) torch.save(x, 'x-file') # 保存为名为'x-file'的文件 x2 = torch.load('x-file') # 下载名为'x-file'的文件 x2

//输出示例:

我们可以存储一个张量列表,再把它读回内存。

y = torch.zeros(4) torch.save([x, y], 'xy-file') x2, y2 = torch.load('xy-file') (x2,y2)

//输出示例:

我们可以读取或写入从字符串映射到张量的字典

mydict = {'x':x, 'y':y} torch.save(mydict, 'mydict') mydict2 = torch.load('mydict') mydict2

4.2 加载和保存模型参数

保存单个权重张量确实有用,不过往往在实际应用中可能会涉及成百上千个参数,难以逐个保存。因此,深度学习框架提供了内置函数来保存和加载整个网络

需要注意的是,机器做的是保存模型参数而非整个模型,因为模型本身本身可以包含任意代码,是难以序列化的。因此,为了恢复模型,我们需要用代码生成架构, 然后从磁盘加载参数。

以一个3层MLP为例:

class MLP(nn.Module): def __init__(self): super().__init__() self.hidden = nn.Linear(20, 256) self.output = nn.Linear(256, 10) def forward(self, x): return self.output(F.relu(self.hidden(x))) net = MLP() X = torch.randn(size=(2, 20)) Y = net(X)

我们将模型的参数存储为“xxx.params”的文件。(第二个数指定路径,若只有文件名默认与代码文件同一文件夹)

  • xxx.params格式:这是 PyTorch 中常用的文件扩展名,用于存储模型的权重和缓冲区张量
torch.save(net.state_dict(), 'mlp.params')

//输出示例:

  • torch.load('mlp.params'):从磁盘文件中加载一个序列化的 Python 对象
  • clone.load_state_dict(...): 这是核心的加载操作。它将磁盘文件中加载的状态字典(包含所有参数和缓冲区的张量值)精确地复制clone模型的对应参数位置上。
  • clone.eval(): 将模型clone切换到评估模式 (Evaluation Mode)

→ nn.Module的模式管理:PyTorch 中的某些层(例如nn.Dropoutnn.BatchNorm,即批量归一化层)在训练时和推理时需要有不同的行为:

  • 训练模式 (.train()):Dropout随机丢弃神经元;BatchNorm计算并更新运行平均值和方差 (running mean/var)。
  • 评估模式 (.eval()):Dropout失效(不丢弃任何神经元);BatchNorm冻结其统计数据,使用在训练过程中学到的固定的运行平均值和方差。

在加载模型进行推理时,必须调用clone.eval()来确保这些层以正确的方式运行,保证输出的确定性和准确性。

clone = MLP() # 先把模型声明出来,再把参数放回去 clone.load_state_dict(torch.load('mlp.params')) clone.eval()

//输出示例:可以看到 clone(X) 的结果与 net(X) 的结果完全一致,说明模型参数成功加载到了 clone的相应位置。

总结

Pytorch深度学习框架为我们自定义层提供了强大的灵活性,可以自定义带参/无参的层,并可以约其他层/块组合使用。此外,有时候训练模型是一件很“贵”的事情,我们可以通过保存模型参数的方式使得模型可以复用到其他环境,save-保存,load-加载。

愉快的一天鼬鼬鼬鼬过去了~~~我又学废了😴😴😴

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/3/18 8:53:18

告别论文焦虑!2025年一大AI论文神器实测报告(附教程)_aibijiang 论文

熬夜、秃头、颈椎疼,还要被导师追着问进度——这大概就是每个大学生写论文时的真实写照。 曾几何时,一篇论文从开题到完成,花费数月甚至一两年都是常事。 而今天,一切都变了。竟然真的有人能在几天之内完成一篇高质量的学术论文…

作者头像 李华
网站建设 2026/3/17 1:01:26

WordPress myCred插件关键权限缺失漏洞:CVE-2025-12362技术分析

CVE-2025-12362: myCred WordPress插件中的CWE-862权限缺失漏洞 严重性:中等 类型:漏洞 CVE编号: CVE-2025-12362 漏洞描述 WordPress的“myCred – 用于游戏化、等级、徽章和忠诚度计划的积分管理系统”插件在2.9.7及之前的所有版本中存在“…

作者头像 李华
网站建设 2026/3/5 3:33:17

当生成式AI成为逆向工程的加速器:揭秘XLoader恶意软件分析

以快制快:利用生成式AI加速逆向工程XLoader 2025年11月3日 研究作者: Alexey Bukhteyev 核心要点 XLoader 仍是目前最难分析的恶意软件家族之一。其代码仅在运行时解密,并受多层加密保护,每一层都使用隐藏在二进制文件不同位置的密钥。即使是…

作者头像 李华
网站建设 2026/3/13 3:11:26

Wireshark 4.6.2 发布:修复两处安全漏洞,关键网络分析工具迎来重要更新

技术摘要 Wireshark 4.6.2 是一个维护版本,修复了两个安全漏洞和五个错误。尽管提供的资料未详细说明漏洞的具体性质,但中等严重性评级表明,它们可能在中等程度上影响机密性、完整性或可用性。此次更新还更改了 Windows 安装程序的打包方式&a…

作者头像 李华
网站建设 2026/3/23 2:55:32

AI代码生成的PDCA框架实践指南

关键要点 将结构化目标设定循环应用于AI编码会话:运用计划-执行-检查-行动原则为每次会话设定明确、可观察的成功标准,并根据结果调整方向。对AI使用结构化任务级规划:让代理分析代码库,并将大型功能分解为可在短迭代内完成的小型…

作者头像 李华