今天来给大家分享一份热乎的大模型应用开发层次的面经,希望能够帮到近期冲击大模型秋招的同学,时间跨度不大,都是近半年面试的,面试公司也涉及了一众大厂,非常具有参考意义~
配套面经整理打包成册,要的可以扫描下方二维码免费获取↓↓↓↓
01时间范围
近半年。
02实际面过的公司
阿里、腾讯、美团、字节、快手、同程、京东、360、keep、滴滴、印象笔记、作业帮、彩云科技、蓝色光标、江城互娱、Aviagames、Hungry Stdios、深言科技、即时科技、RockFlow、格灵深瞳、百融云创、印象笔记、网龙、 HiDream.ai、昆仑万维、数驱互动、Authing。
03先说总结
(1)面试内容 & 难度
个人觉得,在 LLM 应用的面试题上,没有太多复杂、高深的问题,不像上来让你说一下分布式锁怎么设计然后死扣设计细节或是描述一下 MVCC 原理这种偏高难度的八股文问题(当然也遇到了一两次)。
究其原因以下几点:
一是大模型应用目前仍没有很成熟且被广泛接纳的方案,都还在探索;
二是很多公司今年刚开始 all in AI(我司 all 进去的比较早点),面试官也懂得不多。
例如 RAG 这个东西,大部分的面试题无非是“你觉得 RAG 中最难的是什么?(文档切割喽)”、“你是怎么解决幻觉问题的?”,“微调和 RAG 的区别是啥?”等等。
如果你做过 RAG 加上你经常看技术文章结合你的“侃侃而谈”,基本面试官都觉得 ok。
但这里着重说一下我觉得当前非常重要且极大概率提升面试通过率的的一个技术点,就是掌握微调原理并且做过动手做过微调工作再加上动手部署过大模型。
这是我面试中最常被问到而又只能说没做过的问题,当然大部分公司都有专门的算法团队去做这件事,自己到没机会参与其中,也是可以理解的。
**算法题:**一半是 DP 问题,还有一部分难度是 easy 的问题,总体上都是“老熟人”,但是,你即使写出来,面试不一定就能过,有的干脆就不考算法题。
**八股文:**明显比之前少很多,这个和面试的岗位有关系,LLM 应用的岗位更偏实践,所有很多一面就是 leader 面,直接问项目,除非一面也不懂 LLM 的东西,就会考八股文。
但总的来说,八股少了,但是绝对不可以不准备,好几次挂在这上面,别小瞧它。
岗位内容:
游戏公司:基本上是 LLM + AB test for 游戏策划;BI 分析;游戏社区客服助手;
toC:Agent 个人助手
toB:Agent for 解决方案
other:通用 Agent 平台;公司内部 AI 助手、平台;Agent for 运维
(2)offer
会有很多横向对比,如果你期望薪资比较高,对方说要在等等,基本上凉了。
大部分涨幅基本是不到 20% 的,但我的期望是 30% 左右,最后还是拿到了(要有一点点耐心,还要有一定的运气)。
不要眼高手低,先拿一个低于自己预期的 offer,再慢慢谈,前提是公司想要你。
规划好时间,集中面试,集中对比,由于我时间线拉的过长,后面安排的很乱。
(3)再总结
如下:
每次面完都要复盘,没答好的问题,一定要重新梳理答案。
没把握问题的可以直接说不会,别给个你自己都听不懂的答案。
简历一定要让大模型润色,但自己要 check 一遍,别吹过头了。
多看技术文章,扩展技术视野,提高二面面试官对你的印象。
表达一定要流畅清晰,不要断断续续的,面试官会觉得你思路不清晰。
项目效果评估是个很重要的问题,不管你的技术多炫酷,终究还是要看效果,看落地效果。
04面试题
这里想到多少写多少。
LLM 基础:
大模型是怎么训练出来的?
Transform 的架构,Encoder 和 Decoder 是什么?
Function Call 是怎么训练的?
微调的方案有哪些?自己做过没有?
大模型分词器是什么?
Embedding 是什么?你们用的那个模型?
Lib:
介绍一下 langchian
介绍一下 autogen
有没有用过大模型的网关框架(litellm)
为什么手搓 agent,而不是用框架?
mcp 是什么?和 Function Call 有什么区别?有没有实践过?
A2A 了解吗?
Prompt:
ReAct 是啥?怎么实现的?
CoT 是啥?为啥效果好呢?有啥缺点?
Prompt Caching 是什么?
温度值/top-p/top-k 分别是什么?各个场景下的最佳设置是什么?
RAG:
你介绍一下RAG 是什么?最难的地方是哪?
文档切割策略有哪些?怎么规避语义被切割掉的问题?
多路召回是什么?
文档怎么存的?粒度是多大?用的什么数据库?
为啥要用到图数据库?
向量数据库的对比有没有做过?Qdrant 性能如何?量级是多大?有没有性能瓶颈?
怎么规避大模型的幻觉?
微调和 RAG 的优劣势?
怎么量化你的回答效果?例如检索的效果、回答的效果。
workflow:
怎么做的任务拆分?为什么要拆分?效果如何?怎么提升效果?
text2sql 怎么做的?怎么提高准确率?
如何润色query,目的是什么?
code-generation 是什么做的?如何确保准确性?
现在再让你设计你会怎么做?(replan)
效果是怎么量化的?
Agent:
介绍一下你的 Agent 项目
长短期记忆是怎么做的?记忆是怎么存的?粒度是多少?怎么用的?
Function Call 是什么做的?
你最大的难题是什么?你是怎么提高效果的?怎么降低延迟的?
端到端延迟如何优化的?
介绍一下 single-agent、multi-agent 的设计方案有哪些?
反思机制是什么做的?为什么要用反思?
如何看待当下的 LLM 应用的趋势和方向
为什么要用 Webrtc?它和 ws 的区别是什么?
agent 服务高可用、稳健性是怎么保证的?
llm 服务并发太高了怎么办?
系统设计题:
短链系统
分布式锁的设计
给你一部长篇小说,怎么做文档切割?
怎么做到论文翻译,并且格式尽可能和原来的统一
游戏社区客服助手设计。如何绑定游戏黑话,如何利用好公司内部的文档
结合线上问题快速定位项目工程代码有问题的地方
有很多结构化和非结构化数据,怎么分析,再怎么得出我要的结论
八股:
go 的内存分配策略、GMP、GC
python 的内存分配策略、GC
redis 用过那些?mget 底层什么实现的?、zset 怎么实现的?
mysql 索引怎么设计最好?数据库隔离级别?mvcc 是怎么实现的?
分布式锁是什么实现的?
kafka 的 reblance 是什么?会产生那些问题?怎么保证数据不丢?
fastapi 设计原理?
go 中 net/http 如何处理的 tcp 粘包问题
http2 是什么?比 http1.1 有什么优势?
Linux 网络性能调优的方式
如何定位 Linux 中的 pid、端口号等等
AI大模型从0到精通全套学习大礼包
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
只要你是真心想学AI大模型,我这份资料就可以无偿共享给你学习。大模型行业确实也需要更多的有志之士加入进来,我也真心希望帮助大家学好这门技术,如果日后有什么学习上的问题,欢迎找我交流,有技术上面的问题,我是很愿意去帮助大家的!
如果你也想通过学大模型技术去帮助就业和转行,可以扫描下方链接👇👇
大模型重磅福利:入门进阶全套104G学习资源包免费分享!
01.从入门到精通的全套视频教程
包含提示词工程、RAG、Agent等技术点
02.AI大模型学习路线图(还有视频解说)
全过程AI大模型学习路线
03.学习电子书籍和技术文档
市面上的大模型书籍确实太多了,这些是我精选出来的
04.大模型面试题目详解
05.这些资料真的有用吗?
这份资料由我和鲁为民博士共同整理,鲁为民博士先后获得了北京清华大学学士和美国加州理工学院博士学位,在包括IEEE Transactions等学术期刊和诸多国际会议上发表了超过50篇学术论文、取得了多项美国和中国发明专利,同时还斩获了吴文俊人工智能科学技术奖。目前我正在和鲁博士共同进行人工智能的研究。
所有的视频由智泊AI老师录制,且资料与智泊AI共享,相互补充。这份学习大礼包应该算是现在最全面的大模型学习资料了。
资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。
智泊AI始终秉持着“让每个人平等享受到优质教育资源”的育人理念,通过动态追踪大模型开发、数据标注伦理等前沿技术趋势,构建起"前沿课程+智能实训+精准就业"的高效培养体系。
课堂上不光教理论,还带着学员做了十多个真实项目。学员要亲自上手搞数据清洗、模型调优这些硬核操作,把课本知识变成真本事!
如果说你是以下人群中的其中一类,都可以来智泊AI学习人工智能,找到高薪工作,一次小小的“投资”换来的是终身受益!
应届毕业生:无工作经验但想要系统学习AI大模型技术,期待通过实战项目掌握核心技术。
零基础转型:非技术背景但关注AI应用场景,计划通过低代码工具实现“AI+行业”跨界。
业务赋能 突破瓶颈:传统开发者(Java/前端等)学习Transformer架构与LangChain框架,向AI全栈工程师转型。
👉获取方式:
😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓