news 2026/1/12 12:30:14

机器学习——决策树之回归树

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
机器学习——决策树之回归树

概念

解决回归问题的决策树模型你就是回归树

回归树是一种基于决策树的监督学习算法,用于解决回归问题。通过递归地将特征空间划分为多个子区域,并在每个子区域内拟合一个简单的预测值(如均值),实现对连续目标变量的预测。

特点

必须是二叉树

回归树的构建过程

  1. 特征选择与分割
    遍历所有特征和可能的切分点,选择使均方误差(MSE)或平均绝对误差(MAE)最小的特征和切分点。
    分割准则公式:
    [ \min_{j, s} \left[ \min_{c_1} \sum_{x_i \in R_1(j,s)} (y_i - c_1)^2 + \min_{c_2} \sum_{x_i \in R_2(j,s)} (y_i - c_2)^2 \right] ]
    其中 ( R_1, R_2 ) 为分割后的子区域,( c_1, c_2 ) 为子区域内的预测值(通常取均值)。

  2. 递归分割
    对每个子区域重复上述分割过程,直到满足停止条件(如最大深度、最小样本数或误差减少小于阈值)。

  3. 叶子节点预测
    最终叶子节点的预测值为该区域内样本目标变量的均值。

举例:

两个核心问题:1.节点切分的依据是什么?

2.如何能进行预测?

根据这两个问题,我们讲解回归树的计算示例:

1、

1、计算最优切分点

因为只有一个变量,所以切分变量必然是x,可以考虑如下9个切分点:

[1.5,2.5,3.5,4.5,5.5,6.5,7.5,8.5,9.5]。

【原因:实际上考虑两个变量间任意一个位置为切分点均可】

<1>切分点1.5的计算

当s=1.5时,将数据分为两个部分:

第一部分:(1,5.56)

第二部分:(2,5.7)、(3,5.91)、(4,6.4)…(10,9.05)

2、计算损失

C1=5.56

C2=1/9(5.7+5.91+6.4+6.8+7.05+8.9+8.7+9+9.05)=7.5

Loss = (5.56-5.56)^2 + (5.7-7.5)^2+(5.91-7.5)^2+…+(9.05-7.5)^2 =0+15.72 =15.72

3、同理计算其他分割点的损失

容易看出,当s=6.5时,loss=1.93最小,所以第一个划分点s=6.5。

4、对于小于6.5部分

<1>切分点1.5的计算

当s=1.5时,将数据分为两个部分:

第一部分:(1,5.56)

第二部分:(2,5.7)、(3,5.91)、(4,6.4)、(5,6.8)、(6,7.05)

Loss = 0 +(5.7-6.37)^2+(5.91-6.37)^2 +…+(7.05-6.37)^2

=0+1.3087=1.3087

C1=5.56

C2=1/5(5.7+5.91+6.4+6.8+7.05)=6.37

5、可得出

容易看出:<1>当s=3.5时,loss=0.2771最小,所以第一个划分点s=3.5。

<2>当s=8.5时,loss=0.021最小,所以第二个划分点s=8.5。

6、假设只分裂我们计算的这几次

那么分段函数为:

<1>当x<=3.5时,1/3(5.56+5.7+5.91)=5.72

<2>当3.5<x<=6.5时,1/3(6.4+6.8+7.05)=6.75

<3>当6.5<x<=8.5时,1/2(8.9+8.7)=8.8

<4>当8.5<x时,1/2(9+9.05)=9.025

最终得到分段函树!

7、对于预测来说

特征x必然位于其中某个区间内,所以,即可得到回归的结果,比如说:

如果x=11,那么对应的回归值为9.025.

<1>当x<=3.5时,1/3(5.56+5.7+5.91)=5.72

<2>当3.5<x<=6.5时,1/3(6.4+6.8+7.05)=6.75

<3>当6.5<x<=8.5时,1/2(8.9+8.7)=8.8

<4>当8.5<x时,1/2(9+9.05)=9.025

8、决策树的构造:

回归树的实现示例(Python)

使用sklearn构建回归树:

from sklearn.tree import DecisionTreeRegressor from sklearn.model_selection import train_test_split # 假设 X 为特征矩阵,y 为目标变量 X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2) # 初始化回归树模型 reg_tree = DecisionTreeRegressor(max_depth=3, min_samples_leaf=5) reg_tree.fit(X_train, y_train) # 预测与评估 predictions = reg_tree.predict(X_test)

回归树的参数解释

一些方法:

1.apply :返回预测每个样本的叶子的索引

2.decision_path:返回树中的决策路径

3.get_depth:获取树的深度

4.get_n_leaves:获取树的叶子节点数

5.get_params:获取此估计器的参数,即前面配置的全部参数信息

6.score:得到决策树的评判标准R2

回归树的优化方法

  • 剪枝:通过代价复杂度剪枝(CCP)减少过拟合。
  • 集成学习:结合随机森林或梯度提升树(如 XGBoost、LightGBM)提升性能。
  • 超参数调优:使用网格搜索或贝叶斯优化调整max_depthmin_samples_split等参数。

应用场景

  • 房价预测、销量预测等连续值预测任务。
  • 特征重要性分析,辅助业务决策。
版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/1/11 17:40:48

Linly-Talker在高校招生宣传中的个性化推送实验

Linly-Talker在高校招生宣传中的个性化推送实验在每年高考季&#xff0c;高校招生办的老师们总是面临一个共同难题&#xff1a;如何用有限的人力&#xff0c;在短时间内回应成千上万考生和家长五花八门的问题&#xff1f;“我这个分数能报你们学校吗&#xff1f;”“电气工程专…

作者头像 李华
网站建设 2026/1/12 18:43:43

Linly-Talker如何处理长文本输入的上下文连贯性?

Linly-Talker 如何实现长文本生成中的上下文连贯性 在虚拟主播、数字员工和智能教学日益普及的今天&#xff0c;用户早已不再满足于“能说话”的数字人——他们期待的是一个有逻辑、懂语境、表达自然的对话伙伴。尤其是在处理一篇长达数千字的科普文章或一份复杂的业务报告时&a…

作者头像 李华
网站建设 2026/1/12 7:48:29

Linly-Talker在电商直播中的潜力与落地场景

Linly-Talker在电商直播中的潜力与落地场景 如今&#xff0c;一场直播带货的深夜场次正悄然开启。镜头前的“主播”声情并茂地介绍着新款蓝牙耳机&#xff0c;面对观众提问对答如流&#xff1a;“这款有粉色款吗&#xff1f;”“支持多久续航&#xff1f;”她微笑着点头、嘴唇精…

作者头像 李华
网站建设 2026/1/9 9:43:36

无需建模师!Linly-Talker让静态照片‘开口说话’

Linly-Talker&#xff1a;让一张照片“开口说话”&#xff0c;无需建模师的数字人革命 在电商直播间里&#xff0c;一个AI主播正用标准普通话讲解商品&#xff0c;语调自然、口型精准&#xff0c;甚至还能根据用户弹幕实时回应问题。你或许以为这背后是专业团队耗时数周制作的3…

作者头像 李华
网站建设 2026/1/10 21:18:24

我停止使用 Docker 后,一切都变得更轻松了

我有一支技术全面、经验丰富的小型团队&#xff0c;专注高效交付中等规模外包项目&#xff0c;有需要外包项目的可以联系我你知道什么最快乐吗&#xff1f;每次提交代码&#xff0c;都要等 15 分钟流水线构建&#xff0c;原因是你的 Docker 镜像坚持为你——第 17 次——下载半…

作者头像 李华