最近金三银四,后台不少读者留言让我聊聊大模型方向的面试经验。恰好上个月我完整经历了某猪场的大模型用算法岗面试,一路从一面到Offer,被问到头皮发麻。
但不得不说,这场面试让我对自己过去两年的技术积累有了全新的梳理。今天我就把面试中被拷问到的问题整理出来,不是简单的题目罗列,而是我当时真实思考的过程、卡壳的地方,以及事后复盘时想明白的点。如果你正在准备类似岗位,或者想系统构建RAG方向的知识体系,这篇文章值得你静下心来看完。
问题1:在你的项目中,大模型最关键的性能指标是什么?如何评估?
- 标准答案:
大模型最关键的性能指标通常分为两类:任务型指标和系统型指标。
- 任务型指标取决于具体应用场景。比如在对话系统中,我们关注回答的相关性、连贯性和安全性;在代码生成任务中,关注代码的可执行率和准确率;在检索增强生成(RAG)中,则关注检索召回率与生成结果的结合质量。
- 系统型指标则包括推理延迟、吞吐量、显存占用等,它们直接影响模型的落地可行性。评估时,我们通常采用离线自动化评测(如BLEU、ROUGE、准确率等)和在线A/B测试(如用户点击率、满意度评分)相结合的方式。此外,还需要引入人工评估,因为大模型生成的内容往往具有开放性,自动指标难以全面覆盖。
- 问题难点分析:
这个问题的难点在于指标的多样性和场景依赖性。面试官不希望听到你只背诵几个常见指标,而是想了解你是否能根据项目特点灵活定义关键指标。比如,如果你做的项目是客服问答,那么“答案准确率”和“拒绝率”可能比“流畅度”更重要。很多候选人容易犯的错误是回答得太泛,没有结合具体项目,显得缺乏实践经验。 - 面试官考察点:
- 你对大模型落地中核心问题的把握,是否能区分哪些指标是“生死攸关”的。
- 评估体系的完整性,能否兼顾自动评估和人工评估,以及如何处理二者之间的差异。
- 数据驱动思维,是否懂得通过指标迭代来推动模型优化。
- 问题衍生:
- 如果项目指标之间出现冲突(如延迟和效果),你如何权衡?
- 如何设计一个合理的A/B测试方案来验证模型上线后的效果?
- 对于生成任务,自动指标与人工评估的相关性如何分析?
问题2:如果模型效果不达标,你通常优先优化哪一部分?
- 标准答案:
优先优化的部分取决于问题的具体表现。一般我会遵循从数据到模型再到推理的排查顺序:
- 数据质量:首先检查训练数据是否存在噪声、标注错误或分布偏差。数据问题往往是效果不佳的首要原因,修复数据往往能带来最直接的提升。
- 模型结构:如果数据没有问题,再考虑模型容量是否足够,或者是否需要对特定层进行改进,比如引入更好的注意力机制。
- 训练策略:调整学习率、优化器、批次大小等超参数,或者尝试更先进的学习率调度策略。
- 后处理与推理:有时问题出在解码策略上,比如温度过高导致生成随机性太强,或者束搜索宽度不够。
如果以上都无效,我可能会考虑引入更大规模的预训练模型或领域数据继续预训练。
- 问题难点分析:
这个问题的难点在于优先级判断的逻辑性。面试官希望看到你有系统性的调试方法,而不是“凭感觉”随机尝试。另外,有些候选人一上来就说“调参”,这是比较低级的回答,因为调参往往只是最后的手段,而且收益有限。 - 面试官考察点:
- 问题排查的系统性思维,能否建立从数据到模型的优化链路。
- 实践经验,是否真的遇到过效果不达标的情况,以及如何解决的。
- 对成本收益的敏感度,知道哪些优化手段投入产出比高。
- 问题衍生:
- 如果发现模型在特定类别上表现差,你会怎么做?
- 如何判断问题是欠拟合还是过拟合?
- 什么时候应该考虑更换模型架构而不是继续调优?
问题3:大模型生成任务常用自动评测指标有哪些?为什么BLEU / ROUGE不适合评估部分生成任务?
标准答案:
常用自动评测指标包括:BLEU/ROUGE不适合部分生成任务的原因:
- BLEU:基于n-gram精确匹配,适合机器翻译等需要严格对应参考译文的场景。
- ROUGE:基于召回率,适合摘要生成等需要覆盖关键信息的任务。
- METEOR:考虑同义词和词干,比BLEU更灵活。
- BERTScore:利用预训练模型计算语义相似度,更适合开放生成任务。
- Perplexity:衡量模型对生成文本的置信度,但并非直接评测生成质量。
- 依赖参考文本:对于创意写作、对话等多样化任务,单一参考文本无法覆盖所有可能的正确表达,导致低分。
- 忽略语义:仅基于词汇重叠,无法理解语义等价性(如同义句)。
- 对长度敏感:BLEU有短句惩罚,但过长或过短并不一定代表质量差。
- 无法评估事实准确性:对于知识密集型任务,生成的文本可能流畅但与事实不符,BLEU无法捕捉。
- 问题难点分析:
这个问题需要你对常见指标的适用场景和局限性有清晰认识。很多候选人能背出BLEU的定义,但说不清楚为什么它在对话评估中失效。面试官往往通过追问“那你觉得什么指标更合适”来考察你是否了解前沿的评估方法。 - 面试官考察点:
- 对评估指标本质的理解,是否知道每个指标的设计初衷和数学假设。
- 能否根据任务特性选择合适的指标,体现你对大模型评估复杂性的认识。
- 对新指标的关注度,比如BERTScore、BLEURT等。
- 问题衍生:
- 在对话生成中,如何设计一个结合自动指标和人工评估的混合评测体系?
- BERTScore与BLEU相比,有哪些优缺点?
- 如何评估模型生成文本的事实一致性?
问题4:如何设计人工评测流程评估模型回答质量?
- 标准答案:
设计人工评测流程需要兼顾科学性、可操作性和可重复性。一般包括以下步骤:
- 明确评测维度:根据任务定义关键质量维度,如相关性、连贯性、准确性、安全性、有用性等。每个维度要有清晰的评分标准(如1-5分)。
- 构建评测集:选取具有代表性的测试样本,覆盖不同难度和场景。样本数量要足够,以保证统计显著性。
- 招募并培训评测员:选择背景合适的评测员(如普通用户或领域专家),并进行统一培训,确保他们对评分标准理解一致。
- 设计评测方式:可以采用单盲或双盲设计,避免偏见。同时可引入对比评测(如A/B测试),让评测员直接比较两个模型的输出。
- 质量控制:随机插入一些“黄金测试”来检查评测员的可靠性,或让多个评测员标注同一份数据计算一致性(如Kappa系数)。
- 结果分析:统计平均分、标准差,并结合定性反馈进行综合分析。
- 问题难点分析:
这个问题的难点在于评测的主观性和一致性。人工评测很容易受到评测员个人偏好、疲劳程度等因素影响,如何保证结果的可靠性是关键。此外,维度设计是否合理也直接影响评测的有效性。 - 面试官考察点:
- 对人工评测复杂性的认识,是否考虑过各种偏差和控制手段。
- 实践经验,是否有过组织人工评测的经历,遇到过哪些坑。
- 能否将评测结果与模型改进闭环,即如何根据人工反馈指导优化。
- 问题衍生:
- 如果评测员之间评分一致性很低,你会怎么处理?
- 如何利用大模型辅助人工评测,提高效率?
- 在资源有限的情况下,如何权衡样本数量和评测质量?
问题5:在训练大模型时遇到过什么问题嘛?如何解决的啊
- 标准答案:
训练大模型时常见问题及解决思路:
- 显存不足:采用梯度累积、混合精度训练、模型并行、ZeRO优化等技术。
- 训练不稳定(Loss震荡或爆炸):调整学习率、使用warmup、梯度裁剪、检查数据是否存在异常。
- 过拟合:增加数据多样性、使用dropout、权重衰减、早停。
- 收敛缓慢:调整优化器(如AdamW)、学习率调度、检查数据加载是否成为瓶颈。
- 灾难性遗忘:在微调时使用经验回放、EWC、或结合预训练任务进行多任务学习。
以我自己的项目为例,曾经遇到过在领域数据上继续预训练时,模型出现语言能力下降的问题。后来通过混合通用语料和领域语料,并降低领域数据的学习率,缓解了灾难性遗忘。
- 问题难点分析:
这个问题考验的是实战经验。面试官希望听到具体的问题和解决方案,而不是泛泛而谈。难点在于如何把问题描述得清晰,并体现你解决问题的思路和动手能力。 - 面试官考察点:
- 是否真正动手训练过大模型,遇到过哪些典型的工程问题。
- 解决问题的深度,是直接套用现成方案,还是能深入理解原理后进行调优。
- 学习能力,是否关注最新的训练技术(如FlashAttention、DeepSpeed)。
- 问题衍生:
- 混合精度训练的原理是什么?为什么能减少显存?
- 梯度裁剪的阈值如何设置?
- 如果模型在验证集上Loss下降但指标不升,可能是什么原因?
问题6:为什么长文本推理时Attention计算会成为瓶颈?如何解决?
标准答案:
Attention机制的计算复杂度是O(n²)(n为序列长度),随着文本变长,计算量和显存占用呈平方级增长,因此成为瓶颈。具体来说,自注意力需要计算每个token对所有token的注意力分数,导致显存和计算时间爆炸。解决方案包括:
- 稀疏注意力:限制每个token只关注局部窗口或少数全局token,如Longformer、BigBird。
- 线性注意力:将softmax注意力近似为核函数形式,使复杂度降为O(n),如Performer。
- 分段处理:将长文本切分成多个片段,分别处理后再融合,如Transformer-XL。
- 改进推理策略:使用KV缓存,避免重复计算;或采用流式推理,逐步生成。
- 硬件优化:使用FlashAttention等IO感知的注意力实现,减少显存读写。
- 问题难点分析:
这个问题既考察理论基础(复杂度分析),又考察工程实践(解决方案)。难点在于不仅要列出方法,还要理解每种方法的trade-off,比如稀疏注意力可能损失全局信息,线性注意力可能带来精度下降。 - 面试官考察点:
- 对Transformer核心瓶颈的深刻理解。
- 是否关注长文本建模的前沿研究,如Longformer、FlashAttention。
- 工程权衡能力,在资源限制下如何选择最合适的方案。
- 问题衍生:
- FlashAttention是如何减少显存读写的?
- 如果既要长文本又要高精度,你会怎么设计模型?
- 位置编码对长文本推理有什么影响?
问题7:如果模型回答过于冗长,如何通过Prompt优化?
- 标准答案:
可以通过Prompt设计来引导模型生成更简洁的回答:
- 明确指令:在Prompt中加入“请用一句话简要回答”或“限制在50字以内”。
- 示例引导:提供简洁回答的示例,让模型模仿。例如:“Q: 什么是AI?A: 人工智能的简称。”
- 约束解码:结合Prompt中的指令,在推理时设置最大生成长度,或使用长度惩罚。
- 少样本学习:在Prompt中给出几个问答对,其中答案都是简洁的,让模型学会模式。
- 角色设定:如“你是一个喜欢简洁的专家”,让模型进入角色。
需要注意的是,过度压缩可能导致信息丢失,因此需要平衡简洁性和完整性。
- 问题难点分析:
这个问题的难点在于如何在不牺牲质量的前提下控制长度。单纯限制长度可能导致模型截断不完整,需要结合Prompt设计让模型自主选择关键信息。另外,不同模型对Prompt的敏感度不同,需要实验调优。 - 面试官考察点:
- 对Prompt工程的熟练程度,是否知道多种控制方法。
- 对模型行为的理解,能否预判不同Prompt的效果。
- 实际应用能力,能否在项目中快速通过Prompt优化满足需求。
- 问题衍生:
- 如果Prompt优化后回答仍然冗长,你还会尝试哪些方法?
- 如何设计Prompt让模型在简洁的同时保持事实准确性?
- 有没有可能通过微调而不是Prompt来永久改善冗长问题?
问题8:DPO与RLHF的核心区别是什么?为什么DPO可以不需要Reward Model?
标准答案:
核心区别:为什么DPO不需要Reward Model?
DPO基于Bradley-Terry模型,假设人类偏好概率与两个回答的奖励差值相关。通过数学推导,可以将奖励函数表示为参考模型和目标模型的对数概率之差。因此,直接优化目标模型使其对偏好回答的生成概率高于非偏好回答,就等价于优化了隐式奖励。这样省去了训练奖励模型的步骤,简化了流程,也避免了强化学习的不稳定性。
- RLHF(基于人类反馈的强化学习):通常包含三个阶段:训练奖励模型(Reward Model),然后使用强化学习(如PPO)优化语言模型以最大化奖励。
- DPO(直接偏好优化):跳过显式的奖励模型,直接利用偏好数据通过最大化偏好概率来优化语言模型。DPO的核心思想是将奖励函数隐式地表示为语言模型的对数概率比,从而将偏好优化转化为一个简单的分类损失。
- 问题难点分析:
这个问题需要深入理解RLHF的数学原理和DPO的推导过程。很多候选人只知道DPO更简单,但说不清为什么可以去掉奖励模型。面试官往往通过追问“DPO的损失函数是如何推导的”来考察数学功底。 - 面试官考察点:
- 对RLHF流程的熟悉程度,是否理解每个阶段的作用。
- 对DPO论文的深入理解,能否解释其数学等价性。
- 比较分析能力,能指出两种方法的优缺点和适用场景。
- 问题衍生:
- DPO的损失函数中,参考模型的作用是什么?
- DPO在处理多轮对话偏好时有什么局限性?
- 有没有可能将DPO扩展到在线学习场景?
问题9:在RLHF中,为什么需要KL penalty?
- 标准答案:
在RLHF中,KL penalty(KL散度惩罚)的作用是防止优化后的语言模型偏离原始预训练模型太远。具体来说,强化学习的目标是最大化奖励,但如果没有约束,模型可能会过度优化奖励函数,导致生成不自然或重复的文本,甚至出现奖励黑客行为(即找到奖励函数的漏洞)。KL penalty通过惩罚当前模型与参考模型(通常是SFT模型)之间的分布差异,鼓励模型在提升奖励的同时保持语言流畅性和多样性。它相当于一个正则化项,平衡了“迎合奖励”和“保持原有能力”之间的关系。 - 问题难点分析:
这个问题的难点在于理解KL penalty的双重作用:既是正则化,又是防止奖励过度优化的安全网。有些候选人可能会回答“为了防止过拟合”,但不够精确。面试官希望听到“保持与原始分布的接近”这一核心思想。 - 面试官考察点:
- 对RLHF训练稳定性的理解,是否知道KL penalty的必要性。
- 对强化学习与语言模型结合的风险意识,能否预见过度优化的问题。
- 对超参数调节的敏感性,比如KL系数如何影响最终效果。
- 问题衍生:
- KL penalty系数过大或过小会有什么影响?
- 除了KL penalty,还有哪些方法可以约束模型更新?
- 在DPO中是否有类似KL penalty的机制?它是如何体现的?
问题10:为什么PPO在LLM训练中比传统Policy Gradient更稳定?在什么情况下DPO效果可能不如RLHF?
标准答案:
PPO的稳定性来源:DPO效果可能不如RLHF的情况:
- 当偏好数据存在噪声或分布偏移时:RLHF通过奖励模型可以学习到更平滑的偏好函数,对噪声有一定鲁棒性;而DPO直接优化偏好对,对数据质量更敏感。
- 当需要多轮交互或复杂约束时:RLHF可以结合多个奖励信号(如安全性、有用性)加权,而DPO通常只能处理成对偏好。
- 当偏好数据量不足时:RLHF可以先训练奖励模型,再利用未标注数据进行强化学习,而DPO只能依靠有限的偏好对。
- 当任务需要连续控制或细粒度反馈时:RLHF的奖励模型可以提供连续值反馈,而DPO的偏好只有相对顺序。
- 重要性采样与裁剪:PPO使用重要性采样来利用旧策略收集的数据,并通过裁剪(clip)限制更新幅度,避免策略突变。
- 优势函数估计:PPO使用GAE(广义优势估计)减少方差,同时引入值函数(Critic)作为基线,进一步降低梯度估计的方差。
- 多轮更新:PPO允许在一个批次数据上进行多次梯度更新,提高了样本效率。
相比之下,传统Policy Gradient(如REINFORCE)直接使用蒙特卡洛回报,方差大,容易导致训练震荡。
- 问题难点分析:
这个问题是RLHF领域的核心对比,需要深入理解PPO的算法细节和DPO的局限性。难点在于不仅要说出PPO的优点,还要从理论层面解释为什么这些机制带来稳定。对于DPO的劣势,需要结合具体场景分析。 - 面试官考察点:
- 对强化学习算法原理的掌握,是否理解PPO的裁剪、优势估计等核心设计。
- 对比分析能力,能客观评价两种方法的优劣,而不是简单地说“DPO更好”。
- 对实际应用场景的洞察,知道什么情况下该选择哪种方法。
- 问题衍生:
- PPO中的裁剪阈值如何影响训练?
- 如果偏好数据只有“好”和“坏”两类,DPO和RLHF哪个更合适?
- 如何结合DPO和RLHF的优点设计新算法?
问题11:大语言模型预训练数据一般由哪些类型构成?预训练语料如何进行清洗与去重?
标准答案:
预训练数据通常包括:清洗与去重流程:
- 网页文本:如Common Crawl,规模最大但噪声多。
- 书籍:如BookCorpus,提供长篇连贯文本。
- 学术论文:如arXiv,提供专业领域知识。
- 代码:如GitHub,提升代码理解和生成能力。
- 社交媒体:如Reddit,提供对话风格。
- 百科:如Wikipedia,提供结构化知识。
- 语言过滤:保留目标语言,去除其他语言。
- 质量过滤:基于启发式规则(如标点符号比例、单词数)或分类器(训练一个质量打分模型)去除低质量文本。
- 去重:包括文档级去重(MinHash、SimHash)和句子级去重,避免重复数据导致过拟合。
- 隐私过滤:去除个人身份信息。
- 毒性过滤:使用黑名单或分类器去除有害内容。
- 数据混合:按一定比例混合不同类型的数据,平衡领域多样性。
- 问题难点分析:
这个问题涉及数据工程的方方面面,难点在于清洗和去重的粒度控制。比如,过度去重可能丢失多样性,而不足则导致重复。另外,如何设计有效的质量过滤器也需要经验。 - 面试官考察点:
- 对大规模数据处理流程的熟悉程度,是否了解常用工具(如Spark、Hadoop)。
- 数据质量意识,能否识别哪些噪声对模型影响最大。
- 对数据伦理和安全的考虑,如隐私、偏见等问题。
- 问题衍生:
- 如何评估清洗后的数据质量?
- 数据去重后,模型的知识广度是否会受影响?
- 对于多语言模型,数据比例如何确定?
问题12:如何减少推理延迟(latency)?为什么batch推理可以提升吞吐量?大模型推理时temperature / top-p参数分别控制什么?
标准答案:
减少推理延迟的方法:为什么batch推理可以提升吞吐量?
batch推理将多个请求合并成一个批次同时处理,充分利用GPU的并行计算能力。虽然单个请求的延迟可能略有增加(因为需要等待批次填满),但整体吞吐量(每秒处理的请求数)大幅提升,因为硬件计算单元被更充分地利用。此外,矩阵运算在批次维度上也容易并行化。temperature和top-p参数:
- temperature:控制生成的概率分布的平滑程度。温度越高,分布越均匀,生成随机性越大;温度越低,分布越尖锐,越倾向于高概率词。
- top-p(核采样):只考虑累积概率超过p的最小词集合,然后从中采样。它动态调整候选词数量,避免低概率词被选中,同时保留多样性。
- 模型优化:使用量化(如INT8、FP16)、剪枝、蒸馏等技术减小模型尺寸。
- 架构改进:采用更高效的注意力(如FlashAttention)、使用更少层的模型。
- 推理优化:使用KV缓存、批处理(动态批处理)、连续批处理。
- 硬件加速:使用GPU/TPU专用算子,优化内存访问。
- 服务部署:使用模型并行、多卡推理,或使用专门的推理引擎(如TensorRT、ONNX Runtime)。
- 问题难点分析:
这个问题覆盖了推理优化的多个层面,从模型到工程。难点在于理解批处理为什么能提升吞吐量,以及temperature和top-p的数学含义。有些候选人容易混淆temperature和top-p的作用,或者说不清二者如何协同工作。 - 面试官考察点:
- 对推理加速技术的全面了解,是否知道当前主流方法。
- 对吞吐量与延迟权衡的理解,能否根据业务需求选择合适策略。
- 对生成策略的掌握,是否清楚如何控制生成文本的随机性和多样性。
- 问题衍生:
- 动态批处理和静态批处理有什么区别?
- 如何设置temperature和top-p来平衡创造性和稳定性?
- 量化INT8对模型精度的影响有多大?如何补偿?
问题13:代码题:无重复字符的最长子串
标准答案:
这是一个经典的滑动窗口问题。给定一个字符串,找出其中不含有重复字符的最长子串的长度。
解法:使用两个指针left和right维护一个窗口,并用哈希集合记录窗口内的字符。right向右扩展,如果新字符不在集合中,则加入并更新最大长度;如果已存在,则移动left并删除对应字符,直到重复字符被移出。时间复杂度O(n),空间复杂度O(字符集大小)。示例代码(Python):
def lengthOfLongestSubstring(s): char_set = set() left = max_len = 0 for right in range(len(s)): while s[right] in char_set: char_set.remove(s[left]) left += 1 char_set.add(s[right]) max_len = max(max_len, right - left + 1) return max_len问题难点分析:
作为算法题,难度中等偏易,主要考察滑动窗口的熟练度和边界条件处理。难点在于理解为什么用while循环移除左边界,以及如何更新最大长度。虽然简单,但面试官可能会追问优化或变种。面试官考察点:
- 基本编程能力,能否快速写出无bug的代码。
- 对时间复杂度的分析,是否意识到O(n)的解法。
- 代码风格,是否简洁清晰。
- 扩展思维,是否考虑过字符串包含中文或Unicode字符的情况。
- 问题衍生:
- 如果要求输出最长子串本身,如何修改?
- 如果字符串流式输入,如何实时更新最长无重复子串?
- 如果允许重复字符最多k次,如何求解?
总结
这次面试覆盖了大模型训练、评估、优化、强化学习、数据处理和工程部署的方方面面,既有理论深度,又有实践细节。每个问题都像一把钥匙,试图打开你对大模型本质的理解之门。通过复盘,我深刻感受到面试官不仅关注你是否知道某个技术点,更看重你是否理解其背后的原理、局限性和适用场景。希望我的分享能帮助你在准备面试时,不只停留在表面,而是深入思考每个技术选择的“为什么”。
最后唠两句
为什么AI大模型成为越来越多程序员转行就业、升职加薪的首选
很简单,这些岗位缺人且高薪
智联招聘的最新数据给出了最直观的印证:2025年2月,AI领域求职人数同比增幅突破200% ,远超其他行业平均水平;整个人工智能行业的求职增速达到33.4%,位居各行业榜首,其中人工智能工程师岗位的求职热度更是飙升69.6%。
AI产业的快速扩张,也让人才供需矛盾愈发突出。麦肯锡报告明确预测,到2030年中国AI专业人才需求将达600万人,人才缺口可能高达400万人,这一缺口不仅存在于核心技术领域,更蔓延至产业应用的各个环节。
那0基础普通人如何学习大模型 ?
深耕科技一线十二载,亲历技术浪潮变迁。我见证那些率先拥抱AI的同行,如何建立起效率与薪资的代际优势。如今,我将积累的大模型面试真题、独家资料、技术报告与实战路线系统整理,分享于此,为你扫清学习困惑,共赴AI时代新程。
我整理出这套 AI 大模型突围资料包【允许白嫖】:
- ✅从入门到精通的全套视频教程
- ✅AI大模型学习路线图(0基础到项目实战仅需90天)
- ✅大模型书籍与技术文档PDF
- ✅各大厂大模型面试题目详解
- ✅640套AI大模型报告合集
- ✅大模型入门实战训练
这份完整版的大模型 AI 学习和面试资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】
①从入门到精通的全套视频教程
包含提示词工程、RAG、Agent等技术点
② AI大模型学习路线图(0基础到项目实战仅需90天)
全过程AI大模型学习路线
③学习电子书籍和技术文档
市面上的大模型书籍确实太多了,这些是我精选出来的
④各大厂大模型面试题目详解
⑤640套AI大模型报告合集
⑥大模型入门实战训练
如果说你是以下人群中的其中一类,都可以来智泊AI学习人工智能,找到高薪工作,一次小小的“投资”换来的是终身受益!
应届毕业生:无工作经验但想要系统学习AI大模型技术,期待通过实战项目掌握核心技术。
零基础转型:非技术背景但关注AI应用场景,计划通过低代码工具实现“AI+行业”跨界。
业务赋能 突破瓶颈:传统开发者(Java/前端等)学习Transformer架构与LangChain框架,向AI全栈工程师转型。
👉获取方式:
有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓