最近秋招已接近尾声。
节前,我们邀请了一些互联网大厂朋友、今年参加社招和校招面试的同学。
针对新人如何快速入门算法岗、如何准备面试攻略、面试常考点、大模型项目落地经验分享等热门话题进行了深入的讨论。
总结链接:算法岗面试宝典
喜欢本文记得收藏、关注、点赞。更多实战和面试交流,文末加入我们社群
技术交流
受星主邀约,给大家分享最近两个月面试的经历。
首先特别感谢社群的群主和每位小伙伴,让我避免了多次踩坑经历。
面试公司有腾讯、字节、拼多多、饿了么、顺丰科技、携程、金山、富途、TCL、虾皮等。
大体上面试流程基本一致:自我介绍、项目拷打、通识考察、手撕代码、反问。
下面我会从上面5个维度出发,记录下自己的经验和看法。
自我介绍
自我介绍是对背景和工作经历的概述,所以尽可能突出你自己做的比较好且有把握的项目,这样面试官在提问的时候也会因为你自己提到的内容而往这方面走。
不过有一些面试官就是会找简历上和自己业务相关或者感兴趣的项目来进行提问,所以你在简历上提到的项目都需要非常熟悉。
项目拷打
这一部分决定了面试官对于你经验的评估,项目的理解要深一些,这个只能通过不断打磨完善项目经历。
微调项目
- 业务背景
- 数据的构成,是否使用了合成数据
- 训练的过程中用了什么方法(为什么用这样的方式,用别的方式会有什么问题,是否尝试过)
- 如何评估整体的效果
- 微调之后是否还会出现幻觉的问题,出现了的话应该怎么处理
- 这个能力是否只能用在当前业务场景,是否可以作为一个通用的能力
- 是否尝试过用其他的基座模型
- …
应用层项目
- 业务背景
- 逻辑框架
- 优化前和优化后的能力差距
- 遇到最大的困难是什么?怎么解决的
- 是否还有别的优化方式
- 某个流程是否可以进行再优化
- 上线之后的效果反馈
- …
通识考察
- Transformers 和 之前的模型的区别,为什么transformers好?
- transformers通过 encoder + decoder堆叠的形式,通过残差连接、多头注意力机制、位置编码的形式实现了比较好的seq2seq的效果。
- 介绍下Bert,框架,预训练和后续的微调任务?
- 后续的微调任务有命名实体识别,分类等
- 为什么Bert适合做向量模型,底层原理是什么?
- RoBERTa做了什么优化?
- 想要大模型输出的内容都为 json格式,怎么实现?
- OOM问题怎么处理
- 大模型的参数量是怎么计算出来的?
- DeepSeek R1 的训练方式,GRPO的原理是什么?
- 基于过程的强化学习和基于结果的强化学习的差异是什么?
- RAG的整体流程和评估方式?
- 评估方式
- 大模型的数据合成应该怎么做?有哪些方式
- 大模型预训练和SFT的loss的差别是什么?
- DeepSpeed 的三个stage分别是什么?有什么作用
- DP/PP/TP/DDP的概念分别介绍一下?
手撕代码
算法代码
- 手写位置编码
- 手写多头注意力机制
- Leetcode
- 零钱兑换
- 最长递增子序列
- 打家劫舍
- 最长公共子序列
反问
- 明确新公司的业务方向,现在大模型的方向很多,技术方向:RAG,Agent,微调,数据合成等,应用方向有:智能客服,流程优化等。
- 工作强度
- 公司是否有明确的晋升机制
- 调薪幅度及周期(算法目前在市场上还是属于香饽饽,不调薪的话人是留不太住的)
面试两个月下来,算法工程师在市场上还是比较紧缺的,特别是deepseek之后,不管是互联网公司还是传统行业都开始投入AI,机会和风险并存,建议大家在做选择的时候多比较公司的发展和业务方向,祝大家都能拿到心仪的offer。