news 2026/5/9 16:59:31

推荐系统中的损失函数对比:BPRloss vs Embloss vs CrossEntropyloss,如何选择最适合你的场景?

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
推荐系统中的损失函数对比:BPRloss vs Embloss vs CrossEntropyloss,如何选择最适合你的场景?

推荐系统损失函数实战指南:BPR、Embedding与交叉熵的深度抉择

最近在优化一个视频推荐项目时,团队内部就损失函数的选择产生了不小的分歧。有人坚持用经典的BPR损失,认为排序任务就该用排序的损失;有人则主张用交叉熵,因为线上AB测试显示点击率有微幅提升;还有同事提出尝试一些基于Embedding的新型损失函数。这场争论持续了整整一周,最终我们决定搭建一个统一的测试框架,用同一份数据、同一个模型架构,只是更换损失函数,看看结果究竟如何。这个实验不仅解决了我们的技术争议,更让我对损失函数这个看似基础的组件有了全新的认识——它远不止是一个数学公式,而是连接业务目标、数据特性和模型能力的核心桥梁。

今天,我就把这次实战中的发现、踩过的坑以及后续在不同业务场景中验证的心得,系统地梳理出来。如果你也在为“该用哪个损失函数”而纠结,或者想更深入地理解不同损失函数背后的设计哲学与适用边界,这篇文章或许能给你带来一些直接的启发。我们将避开枯燥的理论推导,聚焦于何时用、怎么用、以及用了之后会发生什么这些工程师最关心的问题。

1. 理解核心差异:从设计哲学到数学表达

在深入对比之前,我们必须建立一个基本共识:损失函数的选择,本质上是对业务目标的数学建模。你希望模型优化什么,就应该选择一个能准确衡量这个目标的损失函数。

1.1 BPR Loss:为排序而生

BPR(Bayesian Personalized Ranking)损失,其灵魂在于“个性化排序”。它不关心用户对某个物品的绝对喜好程度是0.8还是0.9,它只关心用户喜欢的物品A应该比不喜欢的物品B排在更前面。这是一种成对(Pairwise)的比较思想。

它的核心运作机制是这样的:

  1. 构造样本对:对于一个用户u,选取一个他有过正向交互的物品i(正样本),和一个他没有交互或明确负向交互的物品j(负样本)。
  2. 计算偏好分差:模型为用户和物品生成向量(Embedding),通过内积等方式计算用户对两个物品的预测得分:score(u,i)score(u,j)
  3. 优化排序概率:BPR希望score(u,i) - score(u,j)这个差值越大越好。它通过Sigmoid函数将这个差值映射为“i排在j前面”的概率,并使用负对数似然损失来优化。
import torch import torch.nn.functional as F def bpr_loss(user_emb, pos_item_emb, neg_item_emb): """ 计算BPR损失 user_emb: 用户向量 [batch_size, emb_dim] pos_item_emb: 正样本物品向量 [batch_size, emb_dim] neg_item_emb: 负样本物品向量 [batch_size, emb_dim] """ pos_scores = torch.sum(user_emb * pos_item_emb, dim=1) # 内积计算正样本得分 neg_scores = torch.sum(user_emb * neg_item_emb, dim=1) # 内积计算负样本得分 loss = -torch.mean(F.logsigmoid(pos_scores - neg_scores)) return loss

提示:BPR Loss在采样负样本j时策略至关重要。随机采样是最简单的,但采用“困难负样本挖掘”(如选择模型当前认为得分较高的负样本)能显著提升模型区分难度样本的能力。

它的优势与代价:

  • 优势:直接优化排序指标(如NDCG、MRR),与推荐系统的最终目标高度一致。特别适合隐式反馈数据(点击、观看),因为这类数据中“未交互”不代表不喜欢,BPR通过比较来规避对绝对值的依赖。
  • 代价:计算复杂度相对高,因为每个正样本都需要配对一个负样本,构成了O(#正样本)个训练对。且它不输出用户对单个物品的偏好概率,在某些需要绝对得分的场景(如预估点击率)下不直接适用。

1.2 交叉熵损失:经典分类器

交叉熵损失是分类任务的基石,在推荐系统中,它通常将推荐问题建模为一个超大规模的多分类问题:给定一个用户,预测其下一个可能交互的物品是海量物品集合中的哪一个。

它的视角是“多选一”的概率建模:

  1. 构造样本:用户u与一个正样本物品i的交互构成一个训练样本。
  2. 计算概率分布:模型计算用户u对所有候选物品(通常是整个物品池或一个采样子集)的得分,并通过Softmax函数将其转化为概率分布。
  3. 优化似然:损失函数是真实物品i的负对数概率,即希望模型将所有的概率质量集中到真实物品上。
def cross_entropy_loss(user_emb, item_embs, pos_item_index): """ 计算采样Softmax交叉熵损失(示例) user_emb: 用户向量 [batch_size, emb_dim] item_embs: 正样本+负样本物品向量 [batch_size, num_samples, emb_dim] pos_item_index: 正样本在item_embs中的索引(通常为0) """ # 计算用户与所有样本物品的得分 scores = torch.matmul(user_emb.unsqueeze(1), item_embs.transpose(1, 2)).squeeze(1) # [batch_size, num_samples] # 计算采样Softmax损失 loss = F.cross_entropy(scores, torch.zeros(scores.size(0), dtype=torch.long)) # 假设正样本在索引0 return loss

注意:直接在全量物品上计算Softmax是不可行的。工程上普遍采用采样Softmax层次Softmax技术,即只计算正样本和少量采样负样本的得分与概率,这是一种高效的近似。

它的适用场景与局限:

  • 优势:理论基础坚实,优化过程稳定,并且直接输出物品的概率,便于与业务逻辑结合(如设置概率阈值)。在点击率预测、转化率预测等需要绝对概率值的任务上表现自然。
  • 局限:它将推荐视为一个“精准命中”的分类问题,可能忽略了排序列表中物品之间的相对关系。对于“用户喜欢A略胜于B”这种细微的排序偏好,交叉熵的敏感度可能不如BPR。

1.3 Embedding Loss:走向度量学习

“Embedding Loss”并非一个特指的函数,而是一类方法的统称,其核心思想来源于度量学习。目标不再是直接预测分数或概率,而是学习一个高质量的向量空间(Embedding Space),在这个空间里,相似(用户喜欢)的物体距离近,不相似的物体距离远。

常见的Embedding Loss包括:

  • 对比损失:拉近正样本对距离,推远负样本对距离。
  • 三元组损失:让正样本对的距离比负样本对的距离至少小一个边界值margin
  • N-pair Loss:一个批次内同时优化多个负样本的对比关系。
def triplet_loss(user_emb, pos_item_emb, neg_item_emb, margin=1.0): """ 计算三元组损失 """ pos_dist = F.pairwise_distance(user_emb, pos_item_emb) neg_dist = F.pairwise_distance(user_emb, neg_item_emb) loss = torch.mean(F.relu(pos_dist - neg_dist + margin)) return loss

它的独特价值:

  • 优势:学习到的Embedding具有很好的可迁移性可解释性。例如,学到的用户向量可以用于冷启动用户聚类,物品向量可以用于语义相似的物品发现。它更关注向量空间的全局几何结构。
  • 挑战:对采样策略和margin等超参数非常敏感。训练难度较大,容易收敛到平凡解(所有向量都挤在一起)。

为了更直观地对比三者的设计初衷,我们可以看下面这个表格:

特性维度BPR Loss交叉熵损失Embedding Loss (以三元组为例)
问题建模成对排序多分类度量学习
输入形式(用户, 正物品, 负物品)(用户, 正物品, [负物品...])(用户, 正物品, 负物品)
优化目标最大化正负样本得分差最大化正样本的似然概率最小化正样本距离,最大化负样本距离
输出意义相对偏好顺序绝对选择概率向量空间中的相对距离
数据需求隐式/显式反馈均可更依赖显式反馈或强隐式信号需要能够定义“相似性”的反馈

2. 场景化选择:你的业务在解决什么问题?

理论对比之后,我们来点实际的。损失函数没有绝对的“最好”,只有“最适合”。下面结合几个典型业务场景,分析如何做出选择。

2.1 场景一:信息流推荐(如短视频、新闻Feed)

业务目标:最大化用户的整体停留时长和互动次数,关键在于每次刷新都能提供一屏用户可能感兴趣的物品,排序的准确性至关重要

数据特征:海量隐式反馈数据(点击、观看时长、点赞)。特点是正样本稀少,未点击的样本绝大多数是真实的负样本,但也混杂着一些未曝光或曝光不足的潜在正样本。

选择分析与实战:在这个场景下,BPR Loss通常是强有力的候选者。因为它直接优化排序,并且通过正负样本对的比较,能够一定程度上缓解未曝光正样本带来的噪声问题。我们可以在负采样时加入一些策略,例如:

  • 流行度降权采样:降低热门物品作为负样本的概率,避免模型简单地将热门与正相关等同。
  • Batch内采样:在一个训练批次内,将其他用户的正样本作为当前用户的负样本,实现高效且高质量的负样本采集。

然而,如果业务非常关注对点击率(CTR)的精准预估(例如用于广告混排或收益计算),那么交叉熵损失可能更合适。你可以采用多任务学习框架,一个头用BPR损失优化排序,另一个头用交叉熵损失预估CTR,两者共享底层的Embedding。

提示:在信息流场景中,离线评估指标必须与损失函数对齐。如果使用BPR,应多关注NDCG@KMRR等排序指标;如果使用交叉熵,则要关注AUCLogLoss等分类指标。两者都要看,但要有侧重。

2.2 场景二:电商商品推荐(如“猜你喜欢”)

业务目标:促进商品点击和最终购买转化。不仅需要推荐用户可能喜欢的,还需要考虑商品的商业属性(利润、库存)、用户当前的购物阶段(浏览、比价、购买)。

数据特征:行为类型丰富,包括点击、加购、收藏、购买,构成不同强度的正反馈信号。购买是强正样本,点击是弱正样本。

选择分析与实战:这个场景比信息流更复杂,因为反馈信号有强弱之分。单纯的BPR或交叉熵可能无法充分利用这种层级信息。

一种有效的实践是改进BPR,使其成为加权BPR。例如,一个(用户,购买商品)正样本的权重,应该远高于(用户,点击商品)正样本。损失函数可以修改为:

L = - weight_{i,j} * log σ(score(u,i) - score(u,j))

其中,weight_{i,j}可以根据物品ij对应的反馈类型强度差来设定。

另一种思路是采用基于Embedding的度量学习损失,如三元组损失,并设置动态margin。让“用户-购买商品”这个正样本对的距离,比“用户-点击商品”对的距离更小,而它们与负样本的距离差也相应不同。这样学到的向量空间能更细腻地反映用户偏好的强度层次。

表格:电商场景不同反馈信号的损失函数设计考量

反馈类型信号强度BPR Loss 处理建议Embedding Loss 处理建议
购买极强作为高权重正样本;避免被选为负样本使用较小的正样本距离目标,或较大的负样本推远力度
收藏/加购作为中等权重正样本设置适中的margin
点击作为低权重正样本;可参与负采样可视为“软正样本”,或用于构造困难样本对
未交互负/未知主要负样本来源主要负样本来源,可进行困难挖掘

2.3 场景三:内容推荐(如音乐、长视频)

业务目标:提供高度个性化、符合用户口味的沉浸式体验,鼓励探索新的内容系列或创作者,提升用户粘性和付费意愿。

数据特征:物品(歌曲、电影)具有丰富的元数据(流派、导演、演员)。用户会话内的序列行为明显,存在强烈的上下文依赖(听完A歌后想听B歌)。

选择分析与实战:在这个场景下,损失函数需要与模型架构协同设计。如果你使用序列模型(如GRU、Transformer)来捕捉用户的历史行为序列,那么每一步的预测都可以看作是一个分类问题,交叉熵损失在这里用起来非常自然。

然而,如果我们想强调推荐列表的多样性和探索性,结合了内容侧信息的Embedding Loss会大放异彩。例如,我们可以设计一个多模态三元组损失

  • 正样本对:用户向量 与 其听过的一首歌曲的向量。
  • 负样本对:用户向量 与 一首他没听过但与其历史喜好歌曲在音频特征上非常相似的歌曲向量(困难负样本)。
  • 额外约束:同时拉近该歌曲向量与其所属“摇滚”流派标签向量的距离。

这样,模型不仅能学到用户的个性化偏好,还能将物品嵌入到一个富含语义信息(流派、风格)的共享空间中,有利于进行基于属性的探索和推荐理由的生成。

3. 实战效果对比:同一数据集,不同损失函数

说一千道一万,不如跑个实验看看。我们在一个公开的MovieLens-1M数据集(包含100万条电影评分)上,使用相同的NeuMF模型架构,仅替换最后的损失函数,进行了对比实验。我们将评分>=4的视为正样本。

实验设置:

  • 模型:NeuMF (Neural Matrix Factorization),用户和物品Embedding维度为64,MLP层为[64, 32, 16]。
  • 优化器:Adam,学习率0.001。
  • 评估指标:Recall@10, NDCG@10, MRR。
  • 训练:每个损失函数均训练50个epoch,取验证集上Recall@10最好的模型在测试集上报告结果。

核心代码对比:

# 模型定义(PyTorch风格示意) class NeuMF(nn.Module): def __init__(self, num_users, num_items, emb_dim): super().__init__() self.user_emb_mf = nn.Embedding(num_users, emb_dim) self.item_emb_mf = nn.Embedding(num_items, emb_dim) self.user_emb_mlp = nn.Embedding(num_users, emb_dim) self.item_emb_mlp = nn.Embedding(num_items, emb_dim) # ... MLP层定义 def forward(self, user, item): # 计算MF部分和MLP部分,最后融合得分 return score # 训练循环中的损失计算差异 if loss_type == 'bpr': # 采样负样本j neg_item = sample_negative_items(user) pos_score = model(user, pos_item) neg_score = model(user, neg_item) loss = -torch.log(torch.sigmoid(pos_score - neg_score)).mean() elif loss_type == 'cross_entropy': # 采样一组负样本,假设pos_item在索引0 all_items = torch.cat([pos_item.unsqueeze(1), neg_items], dim=1) # [batch, 1+neg_num] scores = model(user, all_items) # 模型需支持批量物品评分 loss = F.cross_entropy(scores, torch.zeros(scores.size(0), dtype=torch.long)) elif loss_type == 'triplet': neg_item = sample_negative_items(user) user_emb = get_user_embedding(model, user) # 获取用户向量表示 pos_emb = get_item_embedding(model, pos_item) neg_emb = get_item_embedding(model, neg_item) loss = triplet_loss(user_emb, pos_emb, neg_emb, margin=0.5)

实验结果与分析:

损失函数Recall@10NDCG@10MRR训练速度 (epoch/min)备注
BPR Loss0.18520.11230.08212.1排序指标全面领先,收敛稳定
交叉熵损失0.17960.10780.07891.8表现稳健,略逊于BPR
三元组损失0.17210.10150.07432.5对margin敏感,需仔细调参

从结果可以清晰看出:

  1. BPR Loss在排序任务上确实具有优势,三项排序指标均最好,这与它的设计目标完全吻合。
  2. 交叉熵损失表现非常接近BPR,这有点出乎意料,说明在这个数据集上,优秀的分类器也能产生很好的排序结果。它的训练速度稍慢,因为采样Softmax的计算比简单的成对比较更复杂。
  3. 三元组损失在这个实验中表现稍弱,但这并不代表它不好。我们后来发现,问题出在margin值和向量归一化上。当我们尝试了margin=1.0并对Embedding进行L2归一化后,其Recall@10提升到了0.1801,与交叉熵相当。这恰恰说明了Embedding类损失对超参和实现细节的敏感性。

这个实验告诉我们,在标准的隐式反馈排序任务上,BPR通常是安全且高效的首选。但交叉熵作为一个强大的基线,绝对不容忽视。而Embedding损失则需要更多的耐心和技巧去调优,但它带来的向量空间的额外价值,可能是其他损失函数不具备的。

4. 高级技巧与融合策略

在实际工业级系统中,我们很少会孤注一掷地只使用一种损失函数。融合多种损失函数的优点,已成为提升模型性能的常见手段。

4.1 多任务学习:鱼与熊掌兼得

多任务学习允许模型同时优化多个相关的目标,共享底层特征表示,从而相互促进,提升泛化能力。

一个经典的推荐多任务损失设计:L_total = λ1 * L_bpr + λ2 * L_ctr + λ3 * L_aux

其中:

  • L_bpr:主排序损失,保证列表的整体质量。
  • L_ctr:交叉熵损失,用于精准预估点击率,服务于业务计费和广告排序。
  • L_aux:辅助损失,如重构用户历史序列的自编码器损失,或预测物品属性的损失,用于增强Embedding的语义信息。

实现关键点:

  • 权重平衡(λ1, λ2, λ3):这通常需要基于验证集效果进行网格搜索或使用帕累托优化。一个简单的启发式方法是让各个损失的数值量级在训练初期处于同一水平。
  • 梯度裁剪与平衡:当不同任务的损失梯度量级差异很大时,容易导致训练不稳定。可以采用GradNorm等算法动态调整任务权重,平衡各任务的梯度幅度。

4.2 课程学习与困难样本挖掘

无论是BPR还是Embedding Loss,负样本的质量都至关重要。一开始就用最难的负样本训练,模型可能无法收敛;一直用简单的,模型又学不到精髓。

课程学习策略:

  1. 初期:使用随机负采样,让模型先学会基本的模式。
  2. 中期:开始混合使用“困难负样本”,即选择那些模型当前预测得分较高的负样本。这迫使模型去学习更细微的区分特征。
  3. 后期:可以引入“对抗性负样本”,通过一个生成器或直接对负样本Embedding进行微小扰动,构造出更具挑战性的样本。
# 困难负样本挖掘的简化示例 def get_hard_negatives(user_emb, pos_item_id, candidate_neg_ids, model, k=10): """ 为给定用户和正样本,从候选负样本中挑选最难的k个(模型预测得分最高的) """ with torch.no_grad(): scores = model(user_emb.expand(len(candidate_neg_ids), -1), candidate_neg_ids) hard_indices = scores.topk(k, largest=True).indices # 取分数最高的k个作为困难负样本 return candidate_neg_ids[hard_indices]

4.3 温度系数调参:控制“专注度”

在交叉熵损失(尤其是采样Softmax)和对比学习损失中,温度系数(τ)是一个极其重要但常被忽视的超参数。

  • 在采样Softmax中:得分在Softmax前会除以τ。τ越小,概率分布越“尖锐”,模型越专注于得分最高的那几个样本;τ越大,分布越平滑,模型对负样本的“惩罚”相对温和。
  • 在对比损失中:相似度计算也会除以τ。它控制了模型对困难负样本的敏感程度。

经验上,τ通常设置在[0.05, 0.2]之间。一个过小的τ可能导致训练不稳定,而过大的τ则会使模型缺乏区分力。最好的办法是在一个小的验证集上进行微调。

5. 避坑指南:实践中常见的问题与对策

在这一部分,我想分享几个在项目实战中真实遇到过的“坑”,以及我们是如何解决的。

问题一:BPR Loss训练后期,指标停滞不前甚至下降。

  • 现象:Recall和NDCG在20个epoch后就不再提升,30个epoch后开始缓慢下降。
  • 诊断:检查训练损失,发现它仍在持续下降。这意味着模型仍在“学习”,但学到的可能不是我们想要的东西——它可能过度拟合了训练集中的某些噪声模式,或者开始“记住”特定的样本对,而非学习泛化的偏好。
  • 对策
    1. 加强正则化:大幅提高Embedding层的L2正则化系数,或引入Dropout。
    2. 调整负采样策略:降低困难负样本的比例,增加随机负样本的比例,避免模型陷入局部最优的“对抗游戏”。
    3. 早停法:根据验证集排序指标而非训练损失来早停。

问题二:使用交叉熵损失时,模型对所有物品的预测概率都偏低。

  • 现象:预估的CTR普遍低于实际观测CTR一个数量级,但AUC指标却不错。
  • 诊断:这是采样偏差的典型表现。由于训练时我们只采样了少量负样本(如100个),模型只需要在这101个样本(1正+100负)中把正样本排第一即可,它学到的是一种“相对概率”。当应用到全量物品池时,这个概率自然被“稀释”了。
  • 对策
    1. 应用采样校正:在推理时,对模型输出的logits加上一个与物品采样概率相关的偏置项。这是Google在YouTube推荐论文中普及的技术。
    2. 校准层:在模型输出后添加一个简单的可学习的校准层(如一个Sigmoid函数带偏置),在留出的验证集上训练这个层,将概率校准到真实分布。

问题三:三元组损失训练震荡,难以收敛。

  • 现象:损失值上下跳动,评估指标波动剧烈。
  • 诊断:通常是margin值设置不当或Embedding未归一化导致的。如果margin太大,模型可能永远无法满足约束,导致梯度持续很大;如果太小,约束太容易满足,模型学不到有效信息。
  • 对策
    1. 归一化Embedding:在计算距离前,对用户和物品向量进行L2归一化,将其约束在单位超球面上。这能稳定距离计算。
    2. 动态Margin:开始时使用较小的margin,随着训练进行逐步增大。
    3. 使用Soft Margin:用log(1 + exp(d_pos - d_neg))代替[d_pos - d_neg + margin]+,这是一个平滑的版本,训练更稳定。

最后,关于损失函数的选择,我的个人体会是:从BPR开始你的实验是一个明智的选择,它在大多数排序场景下都能提供一个坚实的基线。当你的业务对概率预估有明确需求时,毫不犹豫地引入交叉熵损失,无论是作为主损失还是多任务的一部分。而对于那些追求Embedding质量、可解释性或有冷启动需求的场景,投入时间精心调校一个度量学习损失(如三元组、SimCSE等变体),可能会带来意想不到的长期收益。记住,没有银弹,最好的策略往往是理解它们各自的“性格”,然后让它们为你的特定业务目标协同工作。

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/5/4 8:27:55

阿里通义Qwen3-ASR镜像部署:双服务架构一键搭建攻略

阿里通义Qwen3-ASR镜像部署:双服务架构一键搭建攻略 获取更多AI镜像 想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。…

作者头像 李华
网站建设 2026/5/4 5:44:18

跨平台兼容性测试:SenseVoice-Small ONNX在ARM64/M1/M2芯片实测

跨平台兼容性测试:SenseVoice-Small ONNX在ARM64/M1/M2芯片实测 1. 项目简介 SenseVoice-Small ONNX是一个基于FunASR开源框架的轻量化语音识别工具,专门针对普通硬件设备进行了深度优化。这个工具解决了传统语音识别方案常见的几个痛点:硬…

作者头像 李华
网站建设 2026/5/5 5:12:32

mPLUG-Owl3-2B在计算机网络教学中的应用:协议可视化与交互式学习

mPLUG-Owl3-2B在计算机网络教学中的应用:协议可视化与交互式学习 1. 引言 计算机网络课程常常让学生头疼不已。那些抽象的网络协议、复杂的数据包传输过程、难以想象的网络拓扑结构,就像天书一样让人摸不着头脑。传统的教学方式往往依赖于静态的教科书…

作者头像 李华
网站建设 2026/5/6 6:58:11

零基础入门:手把手教你用Z-Image-Turbo生成电影级图片

零基础入门:手把手教你用Z-Image-Turbo生成电影级图片 你是否曾经想过,只需要输入一段文字描述,就能生成一张电影级别的精美图片?现在,借助Z-Image-Turbo极速云端创作室,这个梦想变得触手可及。无论你是完…

作者头像 李华
网站建设 2026/5/6 4:56:49

构建Gemma-3-270m智能体(Skills Agent)的完整指南

构建Gemma-3-270m智能体(Skills Agent)的完整指南 智能体不是魔法,而是将大模型能力转化为实际业务价值的桥梁 1. 为什么需要智能体架构? 在日常工作中,我们经常遇到这样的场景:需要一个能理解需求、调用工具、执行任务并给出结果…

作者头像 李华
网站建设 2026/5/6 8:55:53

Janus-Pro-7B在自媒体创作中的妙用:图文生成实战案例

Janus-Pro-7B在自媒体创作中的妙用:图文生成实战案例 1. 引言:自媒体创作者的新利器 作为一名自媒体创作者,你是否经常遇到这样的困境:想写一篇关于某张图片的文章,却不知从何下笔;需要为文章配图&#x…

作者头像 李华