news 2026/4/15 7:22:38

pythonstudy Day37

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
pythonstudy Day37

MLP神经网络的训练

PyTorch的安装

我们后续完成深度学习项目中,主要使用的包为pytorch,所以需要安装,你需要去配置一个新的环境。

未来在复现具体项目时候,新环境命名最好是python版本_pytorch版本_cuda版本,例如 py3.10_pytorch2.0_cuda12.2 ,因为复杂项目对运行环境有要求,所以需要安装对应版本的包。

我们目前主要不用这么严格,先创建一个命名为DL的新环境即可,也可以沿用之前的环境

conda create -n DL python=3.8 conda env list conda activate DL conda install jupyter (如果conda无法安装jupyter就参考环境配置文档的pip安装方法) pip insatll scikit-learn 然后对着下列教程安装pytorch

深度学习主要是简单的并行计算,所以gpu优势更大,简单的计算cpu发挥不出来他的价值,我们之前说过显卡和cpu的区别:

  1. cpu是1个博士生,能够完成复杂的计算,串行能力强。
  2. gpu是100个小学生,能够完成简单的计算,人多计算的快。

这里的gpu指的是英伟达的显卡,它支持cuda可以提高并行计算的能力。

如果你是amd的显卡、苹果的电脑,那样就不需要安装cuda了,直接安装pytorch-gpu版本即可。cuda只支持nvidia的显卡。

安装教程

或者去b站随便搜个pytorch安装视频。

  1. 怕麻烦直接安装cpu版本的pytorch,跑通了用云服务器版本的pytorch-gpu
  2. gpu的pytorch还需要额外安装cuda cudnn组件
import torch torch.cuda

import torch # 检查CUDA是否可用iftorch.cuda.is_available():print("CUDA可用!")# 获取可用的CUDA设备数量 device_count=torch.cuda.device_count()print(f"可用的CUDA设备数量: {device_count}")# 获取当前使用的CUDA设备索引 current_device=torch.cuda.current_device()print(f"当前使用的CUDA设备索引: {current_device}")# 获取当前CUDA设备的名称 device_name=torch.cuda.get_device_name(current_device)print(f"当前CUDA设备的名称: {device_name}")# 获取CUDA版本 cuda_version=torch.version.cudaprint(f"CUDA版本: {cuda_version}")else:print("CUDA不可用。")

数据的准备

# 仍然用4特征,3分类的鸢尾花数据集作为我们今天的数据集 from sklearn.datasets import load_iris from sklearn.model_selection import train_test_split import numpy as np # 加载鸢尾花数据集 iris=load_iris()X=iris.data # 特征数据 y=iris.target # 标签数据 # 划分训练集和测试集 X_train,X_test,y_train,y_test=train_test_split(X,y,test_size=0.2,random_state=42)# 打印下尺寸print(X_train.shape)print(y_train.shape)print(X_test.shape)print(y_test.shape)

# 归一化数据,神经网络对于输入数据的尺寸敏感,归一化是最常见的处理方式 from sklearn.preprocessing import MinMaxScaler scaler=MinMaxScaler()X_train=scaler.fit_transform(X_train)X_test=scaler.transform(X_test)#确保训练集和测试集是相同的缩放
# 将数据转换为 PyTorch 张量,因为 PyTorch 使用张量进行训练 # y_train和y_test是整数,所以需要转化为long类型,如果是float32,会输出1.00.0X_train=torch.FloatTensor(X_train)y_train=torch.LongTensor(y_train)X_test=torch.FloatTensor(X_test)y_test=torch.LongTensor(y_test)

模型架构定义

定义一个简单的全连接神经网络模型,包含一个输入层、一个隐藏层和一个输出层。

定义层数+定义前向传播顺序

import torch import torch.nn as nn import torch.optim as optim
classMLP(nn.Module):# 定义一个多层感知机(MLP)模型,继承父类nn.Module def__init__(self):# 初始化函数super(MLP,self).__init__()# 调用父类的初始化函数 # 前三行是八股文,后面的是自定义的 self.fc1=nn.Linear(4,10)# 输入层到隐藏层 self.relu=nn.ReLU()self.fc2=nn.Linear(10,3)# 隐藏层到输出层 # 输出层不需要激活函数,因为后面会用到交叉熵函数cross_entropy,交叉熵函数内部有softmax函数,会把输出转化为概率 defforward(self,x):out=self.fc1(x)out=self.relu(out)out=self.fc2(out)returnout # 实例化模型 model=MLP()

其实模型层的写法有很多,relu也可以不写,在后面前向传播的时候计算下即可,因为relu其实不算一个层,只是个计算而已。

模型训练(CPU版本)

定义损失函数和优化器

# 分类问题使用交叉熵损失函数 criterion=nn.CrossEntropyLoss()# 使用随机梯度下降优化器 optimizer=optim.SGD(model.parameters(),lr=0.01)# # 使用自适应学习率的化器 # optimizer=optim.Adam(model.parameters(),lr=0.001)

开始循环训练

实际上在训练的时候,可以同时观察每个epoch训练完后测试集的表现:测试集的loss和准确度

# 训练模型 num_epochs=20000# 训练的轮数 # 用于存储每个 epoch 的损失值 losses=[]forepochinrange(num_epochs):# range是从0开始,所以epoch是从0开始 # 前向传播 outputs=model.forward(X_train)# 显式调用forward函数 # outputs=model(X_train)# 常见写法隐式调用forward函数,其实是用了model类的__call__方法 loss=criterion(outputs,y_train)# output是模型预测值,y_train是真实标签 # 反向传播和优化 optimizer.zero_grad()#梯度清零,因为PyTorch会累积梯度,所以每次迭代需要清零,梯度累计是那种小的bitchsize模拟大的bitchsize loss.backward()# 反向传播计算梯度 optimizer.step()# 更新参数 # 记录损失值 losses.append(loss.item())# 打印训练信息if(epoch+1)%100==0:# range是从0开始,所以epoch+1是从当前epoch开始,每100个epoch打印一次print(f'Epoch [{epoch+1}/{num_epochs}], Loss: {loss.item():.4f}')

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/11 4:04:52

谷歌浏览器插件打包和加载

1.去插件管理页面 谷歌浏览器插件管理 edge插件管理,查看插件id 2.复制id ,查找文件所在位置(注意替换插件id) find ~/Library -type d -name "bhghoamapcdpbohphigoooaddinpkbai" 2>/dev/null 3.复制插件所在位置,在插件管理…

作者头像 李华
网站建设 2026/4/7 23:35:16

Dify智能体平台的版本发布机制是如何运作的?

Dify智能体平台的版本发布机制是如何运作的? 在AI应用从实验原型迈向生产系统的今天,一个常被忽视但至关重要的问题浮出水面:我们如何确保今天调好的提示词,明天上线后依然有效? 这个问题背后,是传统AI开…

作者头像 李华
网站建设 2026/4/8 8:32:50

Stable Diffusion WebUI:DeepDanbooru动漫标签自动生成指南

Stable Diffusion WebUI 中的 DeepDanbooru 动漫标签自动化实践 在 AI 绘画领域,精准描述一幅复杂动漫画面始终是创作中的一大痛点。即便经验丰富的用户,也常因遗漏细节或表达模糊而影响出图质量。更别提批量生成时手动撰写 Prompt 的重复劳动——这不仅…

作者头像 李华
网站建设 2026/4/14 0:43:08

反汇编变量

反汇编变量 全局变量 全局变量和常量有着相似的性质&#xff0c;都是在程序执行之前就存在了。常量在PE的不可写数据节中&#xff0c;全局变量和局部变量在PE的可读可写数据节中。 下面来看一个简单的例子&#xff1a; #include <stdio.h>int g_num 0x12345678;int main…

作者头像 李华
网站建设 2026/4/14 9:44:46

30分钟上手动漫生成模型Counterfeit-V2.5

30分钟上手动漫生成模型Counterfeit-V2.5 在AI图像生成的浪潮中&#xff0c;二次元风格内容正以前所未有的速度占领创作者的视野。从独立画师到游戏美术团队&#xff0c;越来越多的人希望借助深度学习技术快速产出高质量、风格统一的动漫角色图。然而现实往往是&#xff1a;环…

作者头像 李华
网站建设 2026/4/7 10:00:24

BioSIM 人TNK-tPA(SIM0359):保证最终产物的高纯度与高活性

在现代生物医药研究中&#xff0c;生物类似药&#xff08;Biosimilars&#xff09;正逐渐成为创新药物的重要补充。它们不仅在成本控制上具有显著优势&#xff0c;同时在药效和安全性方面也展现出与原研药相当的潜力。作为这一领域的前沿探索者&#xff0c;InvivoCrown 推出的 …

作者头像 李华