news 2026/5/2 16:14:37

cudnn实现残差网络(憋出大招)

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
cudnn实现残差网络(憋出大招)

我用pytorch写了一个极简单版本的残差网络(默认训练cifar10),架构如下::

classResidualBlock( torch.nn.Module ):
def __init__(self, channels):
super( ResidualBlock, self).__init__()
self.Conv1 = torch.nn.Conv2d( channels, channels, kernel_size=(3, 3), padding=1)
self.Conv2 = torch.nn.Conv2d( channels, channels, kernel_size=(3, 3), padding=1)

self.relu=torch.nn.LeakyReLU()

def forward(self, x):
y = self.relu((self.Conv1(x) ))
y = (self.Conv2(y))

return self.relu( y+x )

classModel( torch.nn.Module ):
def __init__(self):
super( Model, self).__init__()
self.conv1 = torch.nn.Conv2d( 3, 32, kernel_size=(3,3) , padding=1)
self.conv2 = torch.nn.Conv2d( 32, 64,kernel_size=(3,3) , padding=1 )
self.relu=torch.nn.LeakyReLU()
self.resblk1 = ResidualBlock(32)
self.resblk2 = ResidualBlock(64)

self.pool = torch.nn.MaxPool2d(2)
self.out = torch.nn.Linear(4096,10)


def forward(self, x):

x = self.relu( (self.conv1(x) ) )
x = self.resblk1(x)
x = self.pool( self.relu( (self.conv2(x) ) ))
x = self.resblk2(x)
x = self.pool(( ((x) ) ))
x=x.view(x.size(0),-1)
x=self.out(x)
return x

我想,能不能用cudnn写一个呢?难度太大了!!!!!!!!!!!!!!

昨天是吉祥日,竟然尝试成功,虽然还比不上pytorch,但训练上了61分,运行也有些慢!但没关系,比c++cpu版本(61分)残差网络快多了!

lenet改vgg成功后,我们再改为最简单的resnet-CSDN博客

成功运行已经是天大的幸运了!仿照上面的架构,在cudnn上摸索残差!再接再厉cudnn vgg!

最难是要自己写残差的反向传播,因为pytorch反向传播是自动的!这也是为什么大家喜欢用的原因!

使用类是真的好!cudnn残差架构如下:

class LeNet :public Layer {
public:
LeNet(cublasHandle_t &cublas_, cudnnHandle_t &cudnn_, int batch_) :cublas(cublas_), cudnn(cudnn_), batch(batch_) {

//使用pading方式,vgg
layers.emplace_back(std::make_shared<Conv2D>(cudnn, batch, 3, 32, 32, 32, 3,1,1));//输入->>>c1,5*5,1*28*28-》6*24*24
layers.emplace_back(std::make_shared<ReLU>(cudnn, batch, 32, 32, 32));

////尝试残差,此处要记住输入X
//layers.emplace_back(std::make_shared<Conv2D>(cudnn, batch, 32, 32, 32, 32, 3,1,1));//c3,6*12*12->>16*8*8
//layers.emplace_back(std::make_shared<ReLU>(cudnn, batch, 32, 32, 32)); //c3,6*12*12->>16*8*8
//layers.emplace_back(std::make_shared<Conv2D>(cudnn, batch, 32, 32, 32, 32, 3, 1, 1));
////尝试残差,此处输出Y,然后操作Y+X,完成后,做relu
////即要定义一个Y+X,而且反向时如何改?//参考自己c++cpu版本

// LeNet LeNet_net(cublas, cudnn, batch_size);
/*layers.emplace_back(std::make_shared<residual>(cublas, cudnn, batch, 32, 32, 32));*/
layers.emplace_back(std::make_shared<residual>(cublas, cudnn, batch));

layers.emplace_back(std::make_shared<ReLU>(cudnn, batch, 32, 32, 32));
//第二次做残差,residualExt
layers.emplace_back(std::make_shared<Conv2D>(cudnn, batch, 32, 64, 32, 32, 3, 1, 1));
layers.emplace_back(std::make_shared<ReLU>(cudnn, batch, 64, 32, 32));
layers.emplace_back(std::make_shared<MaxPool2D>(cudnn, batch, 64, 32, 32, 2, 2, 0, 2));

layers.emplace_back(std::make_shared<residualExt>( cudnn, batch, 64, 16, 16));
layers.emplace_back(std::make_shared<ReLU>(cudnn, batch, 64, 16, 16));

layers.emplace_back(std::make_shared<MaxPool2D>(cudnn, batch, 64, 16, 16, 2, 2, 0, 2));

layers.emplace_back(std::make_shared<Linear>(cublas, batch, 64 * 8 * 8, 120));//c5,16*4*4->>>120
layers.emplace_back(std::make_shared<ReLU>(cudnn, batch, 120, 1, 1)); //c5,16*4*4->>>120
//layers.emplace_back(std::make_shared<Linear>(cublas, batch, 120, 84));//120->84
//layers.emplace_back(std::make_shared<ReLU>(cudnn, batch, 84, 1, 1)); //120->84
layers.emplace_back(std::make_shared<Linear>(cublas, batch, 120, 10));//84->10


cudaMalloc(&output, batch * 10 * sizeof(float));
cudaMalloc(&grad_input, batch * 3 * 32*32 * sizeof(float));
}

......

};

上面最大的成功是仿照lenet类,写residualExt类,即就是他们都是类的集合,lenet大一些,residualExt类小一些!

而且可以在lenet类中调用,真的是妙不可言!

让我想起机器视觉康耐视visionpro工具的封装,真是一模一样!自己仿照版本机器视觉,其实也可以仿照这种类架构,很妙!也就是工具组中嵌套工具组!这样你不用管理,因为在递归中,他自己就自动化处理了,大神c++原著中有句话:递归是神,迭代是人。就是这个意思了!

残差类的详细如下(residual是尝试成功版本,residualExt是改进版):

classresidualExt:public Layer {
public:
residualExt( cudnnHandle_t &cudnn_, int batch_ ,int c, int h, int w) :cudnn(cudnn_), batch(batch_)
, _c(c), _h(h), _w(w) {


//使用了数字常量,这个残差只能用一次!!!!!!!!!!!!!!202602091332

//尝试残差,此处要记住输入X
layers.emplace_back(std::make_shared<Conv2D>(cudnn, batch, _c, _c, _h, _w, 3, 1, 1));//c3,6*12*12->>16*8*8
layers.emplace_back(std::make_shared<ReLU>(cudnn, batch, _c, _h, _w)); //c3,6*12*12->>16*8*8
layers.emplace_back(std::make_shared<Conv2D>(cudnn, batch, _c, _c, _h, _w, 3, 1, 1));
//尝试残差,此处输出Y,然后操作Y+X,完成后,做relu
//即要定义一个Y+X,而且反向时改如何?

cudaMalloc(&output, batch * _c * _h * _w * sizeof(float));//输出32*32*32-----------------------显然输入也是32*32*32
cudaMalloc(&input2, batch * _c * _h * _w * sizeof(float));
cudaMalloc(&d_residual, batch * _c * _h * _w * sizeof(float));
// cudaMalloc(&output, batch * 10 * sizeof(float));//这里的10代表10个类,所以不能用
cudaMalloc(&grad_input, batch * _c * _h * _w * sizeof(float));//反向和梯度计算不管!!!!!!!!!!!!!!
}
void forward(float *input_)override {
input = input_;
input2 = input_;
for (const auto &l : layers) {
l->forward(input);
input = l->get_output();
}
/*int NN = _n * _c * _h * _w;*/
/*int NN = batch * 32 * 32 * 32;*/
int NN = batch * _c * _h * _w;
residual_forward_kernel << <(NN + 255) / 256, 256 >> >(output, input, input2, NN);
error_handling(cudaGetLastError());
//cudaMemcpy(input2, inputTemp, sizeof(float)*batch * 10, cudaMemcpyDeviceToDevice);
}
void backward(float *grad_output)override {//梯度来自残差块后的relu,当前只有一个残差块!!!!!!!!!!!
float* grad = grad_output;//要记住这个梯度,即备份一个
float* grad备用 = grad_output;
for (int i = layers.size() - 1; i >= 0; i--) {
layers[i]->backward(grad);
grad = layers[i]->get_grad_input();
}

//float* d_residual = grad备用*X输入数据;//input2 = input_;
// float* d_residual = grad备用*input2;//input2 = input_;
int NN = batch * _c * _h * _w;
/*for (int i = 0; i <NN; i++)
{
d_residual[i] = grad备用[i]*input2[i];
}*/

int threads = 256;
int blocks = (NN + threads - 1) / threads;
mul << <blocks, threads >> >(grad备用, input2, d_residual, NN);//c为输出=d_residual
error_handling(cudaGetLastError());

residual_backprop_kernel << <blocks, threads >> >(grad_input, grad, d_residual, NN);
error_handling(cudaGetLastError());
// cudaMemcpy(grad_input, grad, sizeof(float)*batch * 32 * 32 * 32, cudaMemcpyDeviceToDevice);
}
float* get_output() override { return output; }
float* get_grad_input() override { return grad_input; }
void update(float lr) {
for (const auto &l : layers) {
l->update(lr);

}
}


~residualExt() {
cudaFree(output);
cudaFree(grad_input);
}


private:
// cublasHandle_t &cublas;
int _c, _h, _w;
cudnnHandle_t &cudnn;
int batch;
float *input, *output, *grad_input;
float *input2;
float* d_residual;
std::vector<std::shared_ptr<Layer>> layers;
};

所以,上面pytorch残差网络用cudnn c++重写的话(复现),就是如此!

程序的其他部分参考:

我的第一个cudnn(cuda)人工智能程序(lenet)-CSDN博客

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/27 6:55:23

Cosmos-Reason1-7B快速部署:Docker镜像免配置启动本地推理服务

Cosmos-Reason1-7B快速部署&#xff1a;Docker镜像免配置启动本地推理服务 一句话总结&#xff1a;无需复杂配置&#xff0c;一条命令启动专业级本地推理服务&#xff0c;让AI帮你解决逻辑推理、数学计算和编程问题。 1. 为什么选择Cosmos-Reason1-7B&#xff1f; 如果你经常需…

作者头像 李华
网站建设 2026/5/1 22:49:42

UI-TARS-desktop入门必看:零基础搭建AI开发环境

UI-TARS-desktop入门必看&#xff1a;零基础搭建AI开发环境 1. UI-TARS-desktop是什么&#xff1f;为什么选择它&#xff1f; 如果你正在寻找一个能在自己电脑上运行的AI助手&#xff0c;既能理解你的指令&#xff0c;又能帮你完成各种实际任务&#xff0c;那么UI-TARS-deskt…

作者头像 李华
网站建设 2026/4/17 16:23:25

校验日期格式:正则表达式

// 不允许空字符串&#xff0c;使用分支(|) Pattern(regexp "^\\d{4}-\\d{2}-\\d{2}$", message "日期格式必须为yyyy-MM-dd") // 允许空字符串&#xff0c;使用分支(|) Pattern(regexp "^\\d{4}-\\d{2}-\\d{2}$|^$", message "日期格式…

作者头像 李华
网站建设 2026/4/16 7:33:31

M2LOrder开源模型管理:option/SDGB/1.51目录结构说明+新模型热加载机制

M2LOrder开源模型管理&#xff1a;option/SDGB/1.51目录结构说明新模型热加载机制 1. 项目概述 M2LOrder是一个基于.opt模型文件的情绪识别与情感分析服务&#xff0c;提供HTTP API和WebUI两种访问方式。这个轻量级WebUI让用户能够快速上手使用情感分析功能&#xff0c;无需复…

作者头像 李华
网站建设 2026/4/29 0:54:53

小白必看:Qwen3-ASR-1.7B语音识别常见问题解答

小白必看&#xff1a;Qwen3-ASR-1.7B语音识别常见问题解答 你是不是也遇到过这种情况&#xff1a;开会录音想整理成文字&#xff0c;结果发现语音转文字工具要么识别不准&#xff0c;要么收费太贵&#xff0c;要么担心隐私泄露&#xff1f;或者想给一段视频配上字幕&#xff0…

作者头像 李华