news 2026/2/28 19:05:03

C++:多层神经网络(附带源码)

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
C++:多层神经网络(附带源码)

项目背景详细介绍

随着人工智能与机器学习的快速发展,神经网络(Neural Network)已经成为现代计算机科学中不可或缺的核心技术之一。

在工业级项目中,人们往往直接使用:

  • TensorFlow

  • PyTorch

  • ONNX Runtime

  • 各类推理框架

但对于C++ 学习者和算法初学者来说,如果一开始就依赖这些“黑盒框架”,往往会产生几个严重问题:

  • 不清楚神经网络内部到底做了什么

  • 不了解前向传播与反向传播的本质

  • 无法将数学公式与代码建立对应关系

  • 难以在底层系统、嵌入式、游戏引擎中灵活应用

而在很多真实工程场景中,例如:

  • 游戏 AI

  • 智能决策系统

  • 嵌入式设备推理

  • 算法教学与科研验证

  • 面试与基础能力考察

从零手写一个多层神经网络,反而是一项极具价值的能力。

因此,本项目将以教学与理解为第一目标,在不使用任何第三方机器学习库的前提下,完整实现一个:

支持多层结构、前向传播、反向传播、梯度下降训练的 C++ 神经网络

该项目非常适合作为博客长文、人工智能课程、算法与 C++ 综合训练项目


项目需求详细介绍

本项目的目标需求如下:

1. 功能需求

  1. 使用 C++ 实现多层前馈神经网络

  2. 支持输入层、隐藏层、输出层

  3. 支持 Sigmoid 激活函数

  4. 支持前向传播(Forward Propagation)

  5. 支持反向传播(Backpropagation)

  6. 支持基于梯度下降的权重更新

  7. 能够完成简单监督学习任务

2. 网络结构要求

  • 全连接网络(Fully Connected)

  • 任意层数(示例使用 1 个隐藏层)

  • 使用矩阵 / 向量计算(手动实现)

3. 教学与工程要求

  1. 数学概念与代码一一对应

  2. 代码结构清晰,便于逐层理解

  3. 不追求极致性能,追求可读性

  4. 可扩展为更复杂网络结构


相关技术详细介绍

1. 神经网络基本组成

一个典型的前馈神经网络由以下部分组成:

  1. 神经元(Neuron)

  2. 权重(Weight)

  3. 偏置(Bias)

  4. 激活函数(Activation Function)

数学表达式为:

y = f( Σ(wi * xi) + b )


2. 前向传播(Forward Propagation)

前向传播是指:

从输入层开始,逐层计算,直到输出层得到预测结果

这是**推理(Inference)**的核心过程。


3. 反向传播(Backpropagation)

反向传播是神经网络学习的核心算法,其本质是:

  • 利用链式法则

  • 从输出层向前逐层计算误差

  • 更新权重和偏置


4. 梯度下降(Gradient Descent)

权重更新公式为:

weight = weight - learning_rate * gradient

这是神经网络“学习”的本质。


实现思路详细介绍

整体实现思路如下:

  1. 封装神经网络类

    • 保存权重矩阵与偏置

    • 管理网络层结构

  2. 实现前向传播

    • 输入 → 隐藏层 → 输出层

  3. 实现反向传播

    • 输出层误差

    • 隐藏层误差

    • 权重与偏置更新

  4. 训练循环

    • 输入样本

    • 前向计算

    • 反向更新

    • 多轮迭代收敛

该结构与所有深度学习框架的底层原理完全一致


完整实现代码

/**************************************************** * File: NeuralNetwork.h ****************************************************/ #pragma once #include <vector> class NeuralNetwork { public: NeuralNetwork(int input, int hidden, int output, double lr); std::vector<double> predict(const std::vector<double>& input); void train(const std::vector<double>& input, const std::vector<double>& target); private: double learningRate; std::vector<std::vector<double>> weightsIH; std::vector<std::vector<double>> weightsHO; std::vector<double> biasH; std::vector<double> biasO; static double sigmoid(double x); static double dsigmoid(double y); }; /**************************************************** * File: NeuralNetwork.cpp ****************************************************/ #include "NeuralNetwork.h" #include <cmath> #include <cstdlib> static double randomWeight() { return ((double)rand() / RAND_MAX) * 2.0 - 1.0; } NeuralNetwork::NeuralNetwork(int input, int hidden, int output, double lr) : learningRate(lr) { weightsIH.resize(hidden, std::vector<double>(input)); weightsHO.resize(output, std::vector<double>(hidden)); biasH.resize(hidden); biasO.resize(output); for (auto& row : weightsIH) for (auto& w : row) w = randomWeight(); for (auto& row : weightsHO) for (auto& w : row) w = randomWeight(); for (auto& b : biasH) b = randomWeight(); for (auto& b : biasO) b = randomWeight(); } double NeuralNetwork::sigmoid(double x) { return 1.0 / (1.0 + exp(-x)); } double NeuralNetwork::dsigmoid(double y) { return y * (1.0 - y); } std::vector<double> NeuralNetwork::predict(const std::vector<double>& input) { std::vector<double> hidden(biasH); for (size_t i = 0; i < hidden.size(); i++) for (size_t j = 0; j < input.size(); j++) hidden[i] += weightsIH[i][j] * input[j]; for (auto& h : hidden) h = sigmoid(h); std::vector<double> output(biasO); for (size_t i = 0; i < output.size(); i++) for (size_t j = 0; j < hidden.size(); j++) output[i] += weightsHO[i][j] * hidden[j]; for (auto& o : output) o = sigmoid(o); return output; } void NeuralNetwork::train(const std::vector<double>& input, const std::vector<double>& target) { // 前向传播 std::vector<double> hidden(biasH); for (size_t i = 0; i < hidden.size(); i++) for (size_t j = 0; j < input.size(); j++) hidden[i] += weightsIH[i][j] * input[j]; for (auto& h : hidden) h = sigmoid(h); std::vector<double> output(biasO); for (size_t i = 0; i < output.size(); i++) for (size_t j = 0; j < hidden.size(); j++) output[i] += weightsHO[i][j] * hidden[j]; for (auto& o : output) o = sigmoid(o); // 输出层误差 std::vector<double> outputErrors(output.size()); for (size_t i = 0; i < output.size(); i++) outputErrors[i] = target[i] - output[i]; // 隐藏层误差 std::vector<double> hiddenErrors(hidden.size(), 0.0); for (size_t i = 0; i < hidden.size(); i++) for (size_t j = 0; j < output.size(); j++) hiddenErrors[i] += weightsHO[j][i] * outputErrors[j]; // 更新权重 HO for (size_t i = 0; i < weightsHO.size(); i++) for (size_t j = 0; j < weightsHO[i].size(); j++) weightsHO[i][j] += learningRate * outputErrors[i] * dsigmoid(output[i]) * hidden[j]; // 更新偏置 O for (size_t i = 0; i < biasO.size(); i++) biasO[i] += learningRate * outputErrors[i] * dsigmoid(output[i]); // 更新权重 IH for (size_t i = 0; i < weightsIH.size(); i++) for (size_t j = 0; j < weightsIH[i].size(); j++) weightsIH[i][j] += learningRate * hiddenErrors[i] * dsigmoid(hidden[i]) * input[j]; // 更新偏置 H for (size_t i = 0; i < biasH.size(); i++) biasH[i] += learningRate * hiddenErrors[i] * dsigmoid(hidden[i]); } /**************************************************** * File: main.cpp ****************************************************/ #include "NeuralNetwork.h" #include <iostream> int main() { NeuralNetwork nn(2, 4, 1, 0.1); // 训练 XOR for (int i = 0; i < 5000; i++) { nn.train({0, 0}, {0}); nn.train({0, 1}, {1}); nn.train({1, 0}, {1}); nn.train({1, 1}, {0}); } std::cout << "0 XOR 0 = " << nn.predict({0, 0})[0] << std::endl; std::cout << "0 XOR 1 = " << nn.predict({0, 1})[0] << std::endl; std::cout << "1 XOR 0 = " << nn.predict({1, 0})[0] << std::endl; std::cout << "1 XOR 1 = " << nn.predict({1, 1})[0] << std::endl; return 0; }
版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/2/26 2:14:02

OpenSpeedy终极指南:如何用开源工具掌控游戏时间流速

OpenSpeedy终极指南&#xff1a;如何用开源工具掌控游戏时间流速 【免费下载链接】OpenSpeedy 项目地址: https://gitcode.com/gh_mirrors/op/OpenSpeedy 厌倦了游戏中无聊的等待&#xff1f;想要自由调节游戏节奏&#xff1f;OpenSpeedy这款完全免费的开源游戏变速工具…

作者头像 李华
网站建设 2026/2/26 9:30:04

BBDown终极指南:5分钟掌握免费B站视频下载神器

BBDown终极指南&#xff1a;5分钟掌握免费B站视频下载神器 【免费下载链接】BBDown Bilibili Downloader. 一款命令行式哔哩哔哩下载器. 项目地址: https://gitcode.com/gh_mirrors/bb/BBDown 想要轻松保存B站视频却苦于找不到合适的工具&#xff1f;BBDown这款专业级B站…

作者头像 李华
网站建设 2026/2/25 7:34:10

小米运动步数自动同步工具2025:智能多平台数据管理完整指南

小米运动步数自动同步工具2025&#xff1a;智能多平台数据管理完整指南 【免费下载链接】mimotion 小米运动刷步数&#xff08;微信支付宝&#xff09;支持邮箱登录 项目地址: https://gitcode.com/gh_mirrors/mimo/mimotion 在当今数字化健康管理时代&#xff0c;如何高…

作者头像 李华
网站建设 2026/2/19 7:04:55

iOS个性化定制终极指南:无需越狱打造完全专属iPhone体验

iOS个性化定制终极指南&#xff1a;无需越狱打造完全专属iPhone体验 【免费下载链接】CowabungaLite iOS 15 Customization Toolbox 项目地址: https://gitcode.com/gh_mirrors/co/CowabungaLite 还在为千篇一律的iOS界面感到乏味吗&#xff1f;想要让iPhone真正成为你的…

作者头像 李华
网站建设 2026/2/23 11:17:31

ResNet18优化实战:模型量化与加速的实践

ResNet18优化实战&#xff1a;模型量化与加速的实践 1. 引言&#xff1a;通用物体识别中的ResNet-18价值 在当前AI应用广泛落地的背景下&#xff0c;轻量级图像分类模型成为边缘设备、嵌入式系统和低延迟服务的核心需求。ResNet-18作为深度残差网络中最经典的轻量版本之一&am…

作者头像 李华
网站建设 2026/2/26 17:00:09

DoL-Lyra整合包终极使用手册:5分钟快速精通秘籍

DoL-Lyra整合包终极使用手册&#xff1a;5分钟快速精通秘籍 【免费下载链接】DoL-Lyra Degrees of Lewdity 整合 项目地址: https://gitcode.com/gh_mirrors/do/DoL-Lyra 还在为Degrees of Lewdity游戏的各种Mod安装烦恼吗&#xff1f;DoL-Lyra整合包彻底改变了传统Mod管…

作者头像 李华