黄石市网站建设_网站建设公司_关键词排名_seo优化
2026/1/21 11:49:27 网站建设 项目流程

百度

部门与岗位:百度TPG - 文心一言团队 - 大模型算法岗

一面(基础八股为主,全面考察)

  1. 自我介绍+项目深度讲解(重点聊项目核心难点与解决方案);
  2. 说说你了解的主流大模型,从模型结构层面分析它们的核心差异(如GPT、LLaMA、文心一言等);
  3. 大模型常用位置编码方案有哪些?各自的优缺点及适用场景是什么?(提示:可延伸RoPE、Sinusoidal、ALiBi等);
  4. 详细阐述大模型预训练、后训练及推理全流程,重点拆解RLHF实现细节——包括PPO算法原理、DPO与PPO的核心区别及适用场景;
  5. 大模型超长上下文能力如何实现?以KIMI为例说明技术路径(提示:可涉及窗口扩展、注意力优化等方向);
  6. 大模型智能体(Agent)的工作机制及核心组件的作用;
  7. 场景题:如何训练一款能精准提取文本摘要的大模型?(从数据、训练策略、评估指标等维度作答);
  8. 代码实操:买卖股票系列四道题(覆盖单交易、多交易、有限次交易场景):
    1. 买卖股票的最佳时机(单次交易);
    2. 买卖股票的最佳时机 II(无限次交易,无手续费);
    3. 买卖股票的最佳时机 III(最多两次交易);
    4. 买卖股票的最佳时机 IV(最多k次交易)。

面试总结:一面聚焦大模型基础知识点,以八股题为主,无过多发散性问题,难度适中但覆盖面极广,全程时长1.5小时以上,重点考察候选人的基础功底是否扎实。

二面(综合素质导向,考察问题解决能力)

  1. 自我介绍(建议侧重与岗位匹配的能力与项目亮点);
  2. 结合候选人CV背景提问:CV与NLP的区别与关联,在Transformer架构大一统的趋势下,CV、NLP、语音等领域能否实现技术融合?如何融合?
  3. 大模型训练的数据处理全流程:数据清洗、去重、配比策略,以及如何通过数据优化提升模型性能;
  4. 大模型“幻觉”现象的定义、产生原因,以及业内主流的减轻幻觉的技术方案;
  5. 大模型复读问题(重复生成内容)的成因的及针对性解决办法;
  6. 大模型工具调用的实现逻辑与关键步骤(从工具选择、参数传递到结果解析);
  7. Agent的核心构成模块,以及你了解的具体实现方案(如LangChain、AutoGPT等框架的应用);
  8. 开放题:训练大模型过程中遇到的核心困难及对应的解决方案(重点体现问题分析与落地能力);
  9. 代码实操:基于PyTorch基础语法实现一个Tokenizer(考察对文本编码核心逻辑的理解)。

面试总结:二面弱化细节知识点考察,更看重候选人的综合素质、跨领域思考能力及问题解决能力。面试官专业度高,面试时长同样超1小时,互动性较强。

三面(综合能力+战略思维,大老板面)

  1. 深度复盘项目:重点围绕Agent相关项目,从项目背景、立项动机、技术方案设计、落地效果、复盘优化等维度层层追问,耗时约30分钟;
  2. 开放题:当前大模型行业存在的核心痛点的及潜在解决方案(考察行业认知与技术视野);
  3. 开放题:若让你设计一款大模型Agent,你的整体思路是什么?各模块设计的核心依据?
  4. 职业规划类问题:除薪资外,选择工作时最看重的三个因素;
  5. 产品认知题:对文心一言产品的了解,分析其核心优势与可优化方向;
  6. 价值匹配题:若拿到Offer,你能为文心一言团队带来哪些核心价值?(结合自身能力与团队需求作答)。

面试总结:三面考察维度更宏观,兼顾技术深度、行业视野与职业素养,面试官大概率为团队负责人,看问题系统性强,面试压力略大。整体面试层层递进,面试官愿意与候选人深入交流,而非机械卡时面试。

腾讯

背景补充:候选人211本硕,NLP方向,无学术论文,有相关实习经历(导师放养,资源有限),本科期间有ACM竞赛经历(获1枚铜牌),面试岗位为PCG部门大模型日常实习岗。

一面(基础+项目,兼顾实操)

  1. Q1:谈谈你了解的机器学习算法,简述其核心原理(候选人结合实体识别场景,讲解了隐马尔可夫模型HMM,包括观测状态、隐藏状态定义、前向传播、解码过程及应用场景);
  2. Q2:详细讲解BERT的模型结构、预训练任务及下游任务适配方式(八股核心题,需覆盖双向Transformer Encoder、MLM与NSP任务,以及文本分类、关系抽取等下游任务的微调逻辑);
  3. Q3:是否有大模型微调经验?了解RLHF全流程吗?(候选人回答:独立微调过Llama3、GLM(8/9B规模),实践过SFT、DPO流程,基于DeepSpeed框架部署,随后拆解RLHF三阶段流程及PPO算法中四个核心模型的作用);
  4. Q4:对强化学习的理解?详细阐述PPO算法的核心逻辑(候选人因仅通过RLHF了解基础内容,回答未达面试官预期,该问题跳过);
  5. Q5:如何扩展大模型的最大输入长度?(候选人回答:从模型结构优化(GQA、MQA、Flash Attention)、位置编码改进(RoPE)等方向展开,说明仅看过相关论文,实操经验较少);
  6. Q6:是否了解大模型主流训练方法?(候选人坦诚未实际应用,该问题未深入);
  7. Q7:对文生图任务的了解?(候选人讲解了Diffusion、CLIP模型原理,分享了自己基于Unet+Diffusion+VAE搭建文生图模型的实践经历及设计思路);
  8. 代码实操:手撕快速排序算法(考察基础编程能力)。

面试结果:当天晚上收到二面通知,整体一面难度适中,侧重基础能力与实操经历的匹配度。

二面(项目深挖,无代码题)

面试官聚焦候选人项目经历,围绕以下问题展开提问:

  • 大模型微调的完整流程:数据集构建逻辑、数据清洗与预处理方法、微调策略选择依据;
  • 项目中RAG技术的设计流程,核心优化点在哪里?
  • 文本Chunk的划分方式及设计理由,如何平衡召回率与效率?
  • 项目落地过程中遇到的核心困难,如何提升RAG召回效果?若大模型文本输入后效果不佳,你的排查思路是什么?
  • 如何提升大模型的外推能力(对未见过的数据的适配能力)?
  • 再次追问对文生图任务的理解(与一面问题呼应,考察知识连贯性)。

面试结果:面试流程草草结束,1天后收到面试未通过通知,推测核心原因是项目深度或技术实操能力未达岗位预期。

阿里

部门与岗位:淘天集团 - 搜推智能产品事业部 - 多模态大模型岗

一面(多模态八股,基础考察)

  1. 自我介绍+项目复盘:面试官结合项目细节,与候选人探讨技术方案的可行性及优化空间,互动性强;
  2. 详细介绍CLIP模型的核心原理、训练方式及应用场景(多模态基础核心题);
  3. LoRA微调的原理是什么?其核心优势及适用场景有哪些?(对比全量微调说明);
  4. 列举你了解的多模态大模型,简要说明各自的核心特点与技术差异(如BLIP、BLIP2、Qwen-VL、LLaVA等);
  5. BLIP模型的三个核心损失函数分别是什么?对应的数据集清洗策略有哪些?
  6. BLIP2相对于BLIP的核心改进点,以及BLIP3的技术升级方向(考察对多模态模型发展脉络的了解);
  7. Qwen-VL的三阶段训练流程及各阶段的核心作用;
  8. 开放题:视觉编码器与LLM连接时,BLIP2的Q-Former复杂Adaptor与LLaVA的简单MLP Adaptor各有何优缺点?如何选择?
  9. 代码实操:实现多头自注意力机制(考察Transformer核心模块的编程能力)。

面试总结:一面以多模态大模型八股题为主,难度适中,核心考察候选人对多模态基础知识点的理解及模型设计动机的认知,只要掌握主流多模态模型的核心逻辑,即可应对。

二面(八股+深度理解,难度升级)

  1. 自我介绍+项目深挖:重点追问项目中技术方案的选择动机,及可能引发的潜在问题与应对预案;
  2. Transformer核心问题:编码器与解码器的注意力机制差异,计算注意力时除以√d_k的核心原因(从数值稳定性、梯度消失等角度分析);
  3. 基于Transformer的经典语言模型演进脉络,Qwen相对于原始Transformer的结构改动,以及Qwen2的技术升级点;
  4. RLHF深度解析:DPO与PPO的损失函数设计、核心优缺点及适用场景对比;
  5. 对比学习延伸:除CLIP外,还了解哪些对比学习方法?各自的应用场景是什么?
  6. 开放题:当前多模态大模型面临的最大技术瓶颈是什么?有哪些潜在的突破方向?
  7. 代码实操:实现1143. 最长公共子序列(动态规划经典题,考察算法设计能力)。

面试总结:二面仍以八股为核心,但增加了对模型深度理解和技术视野的考察,难度略高于一面,整体流程常规,面试官会引导候选人梳理思路。

三面(轻松交流+综合适配,大老板加面)

  1. 自我介绍后,详细复盘项目核心细节(侧重技术落地能力与复盘总结能力);
  2. 技术交流题:围绕主流大模型及多模态模型的发展历程展开讨论,涵盖Transformer、BERT、GPT、LLaMA、Qwen等模型的技术迭代逻辑,及o1推理模型的创新点;
  3. 实操经历题:是否有过小规模大模型的训练实践?分享具体过程与收获;
  4. 综合交流:职业规划、对多模态行业的看法、岗位适配度沟通等(氛围轻松,无压力)。

面试总结:三面时长约40分钟,因前两面已完成知识点考察,本次以轻松交流为主。面试官为团队负责人,对大模型领域理解深刻,候选人可从中收获行业见解,面试体验极佳。

整体面试备考建议(小白/程序员必看)

  1. 基础八股是核心:无论百度、阿里还是腾讯,一面均侧重基础知识点考察,需熟练掌握大模型(单模态+多模态)、Transformer、RLHF、LoRA等核心技术的原理与应用,建议整理八股笔记反复背诵;

  2. 项目深度要足够:二面、三面均会深挖项目,尤其是Agent、多模态、微调相关项目,需能清晰拆解从设计到落地的全流程,提前准备项目复盘的STAR法则;

  3. 代码能力不松懈:三家公司均有代码实操题,涵盖基础算法、动态规划、Transformer核心模块、Tokenizer实现等,建议日常针对性刷题(LeetCode中等难度为主);

  4. 行业视野要拓展:三面常考察开放题与行业认知,需定期关注大模型领域的技术动态、产品迭代及行业痛点,培养宏观思考能力。

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

为什么要学习大模型?

我国在A大模型领域面临人才短缺,数量与质量均落后于发达国家。2023年,人才缺口已超百万,凸显培养不足。随着AI技术飞速发展,预计到2025年,这一缺口将急剧扩大至400万,严重制约我国AI产业的创新步伐。加强人才培养,优化教育体系,国际合作并进是破解困局、推动AI发展的关键。

大模型入门到实战全套学习大礼包

1、大模型系统化学习路线

作为学习AI大模型技术的新手,方向至关重要。 正确的学习路线可以为你节省时间,少走弯路;方向不对,努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划,带你从零基础入门到精通!


2、大模型学习书籍&文档

学习AI大模型离不开书籍文档,我精选了一系列大模型技术的书籍和学习文档(电子版),它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。

3、AI大模型最新行业报告

2025最新行业报告,针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。

4、大模型项目实战&配套源码

学以致用,在项目实战中检验和巩固你所学到的知识,同时为你找工作就业和职业发展打下坚实的基础。

5、大模型大厂面试真题

面试不仅是技术的较量,更需要充分的准备。在你已经掌握了大模型技术之后,就需要开始准备面试,我精心整理了一份大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余

适用人群

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范
第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署
第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建
第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

需要专业的网站建设服务?

联系我们获取免费的网站建设咨询和方案报价,让我们帮助您实现业务目标

立即咨询