南昌市网站建设_网站建设公司_Photoshop_seo优化
2026/1/8 12:12:50 网站建设 项目流程

本文深度梳理15个大模型领域核心技术岗位招聘详情,覆盖推理优化、框架研发、训练加速、多模态融合、语音音频理解等关键赛道。每个岗位均清晰拆解职责边界与技能门槛,明确编程语言、框架实操、并行计算等核心能力要求,同时补充岗位适配场景与入门方向建议,为想切入大模型领域的小白开发者、资深程序员提供全面的职业规划与求职参考。

【岗位核心亮点】

  • 薪资对标一线大厂水准,薪酬范围open谈,核心岗位年薪竞争力拉满
  • 职级匹配行业高阶标准,覆盖P7-P10等级,支持资深工程师、技术专家等多阶段人才发展
  • 岗位覆盖北京、深圳、上海、杭州等核心技术城市,部分岗位支持跨城协作,选择空间广

一、大模型推理优化研发工程师(算子优化/编译)| 北京/深圳/上海/杭州

核心职责

  1. 负责大模型推理引擎的研发与迭代,搭建并优化PD分离推理调度系统,提升系统稳定性与运行效率
  2. 聚焦推理性能优化核心目标,通过技术手段提升模型吞吐能力,同时精准控制算力成本
  3. 优化大模型推理框架的易用性,完善调试工具与文档,降低开发与运维门槛

技能要求

  1. 熟练掌握C/C++、Python编程语言,具备规范的编码习惯与高效的问题调试能力
  2. 熟悉GPU/AI芯片编程技术,如CUDA、OpenCL、Ascend C等,有cutlass等加速库使用经验者优先
  3. 深入了解主流大模型推理框架,如vllm、sglang、tensorrt-llm、FasterFransformer等,有实操经验者加分
  4. 熟悉各类深度学习网络及算子底层实现逻辑,具备训练与推理模型调试、调优实战经验者优先
  5. 掌握模型并行、流水线并行等主流并行策略,了解NVLINK、GPU通信者相关技术者优先
  6. 具备GPU、AI芯片体系结构相关知识,熟悉芯片核心特性,有系统性能分析与调优经验者优先

入门适配建议

小白可先从CUDA基础编程与vllm框架实操入手,积累算子优化小案例,逐步理解推理引擎的核心工作流程;资深程序员可重点突破PD分离调度系统设计,提升性能调优实战能力。

二、大模型推理引擎研发工程师 | 北京/深圳/上海/杭州

核心职责

  1. 主导大模型推理引擎的研发与优化工作,搭建高可用的PD分离推理调度系统
  2. 适配主流GPU与异构AI芯片,深度优化大模型推理性能,构建极致的性能-成本优势

技能要求

  1. 熟练掌握C/C++、Python编程语言,具备扎实的编码能力与问题排查能力
  2. 熟悉GPU/AI芯片编程,如CUDA、OpenCL、Ascend C等,熟悉cutlass等加速库者加分
  3. 深入了解vllm、sglang、tensorrt-llm、FasterFransformer等主流推理框架的底层逻辑与使用场景
  4. 熟悉深度学习网络及算子底层实现细节,有训练与推理模型调试、调优实战经验者优先
  5. 掌握模型并行、流水线并行等并行策略,了解NVLINK、GPU通信者相关技术者优先
  6. 具备GPU、AI芯片体系结构知识,熟悉芯片特性,有系统性能分析与调优经验者优先
  7. 加分项1:在机器学习或体系结构相关顶会发表过论文
  8. 加分项2:参与过vllm、sglang等开源项目的代码贡献
  9. 加分项3:熟悉推理服务框架,具备服务部署经验,尤其是超大模型分布式部署经验者优先

入门适配建议

建议从开源推理框架二次开发入手,积累芯片适配经验;重点关注异构芯片的性能优化差异,逐步提升分布式推理服务部署能力。

三、PyTorch框架研发工程师/专家 | 北京/深圳/上海/杭州

核心职责

  1. 参与太极分布式深度学习系统研发,重点负责GPU及异构芯片的适配与性能优化工作
  2. 深入钻研框架引擎内部运行机制,主导或参与大模型前沿技术的探索与落地实践
  3. 协同团队提升系统的稳定性与扩展性,保障系统能够支撑大规模深度学习任务的高效运行

技能要求

  1. 精通PyTorch框架,对Tensorflow/Mindspore等其他深度学习框架有一定了解
  2. 熟悉当前主流大模型,具备百亿/千亿参数规模大模型分布式训练经验者优先
  3. 掌握并行计算、CUDA编程、网络通信、系统优化及集群硬件架构等HPC相关知识
  4. 具备出色的编程能力,熟练使用Python,掌握C++、数据结构与算法设计,熟悉Linux/Unix系统及Shell编程,熟练使用Git进行版本控制
  5. 拥有1年以上AI分布式系统研发经验,计算机、人工智能、机器学习等相关专业硕士及以上学历,具备丰富相关经历的本科生也可考虑

入门适配建议

小白可先夯实PyTorch基础,深入学习分布式训练相关API;资深工程师可重点研究太极分布式系统架构,从框架底层优化入手,积累大规模任务支撑经验。

四、大模型推理加速工程师 | 北京/深圳/上海/杭州

核心职责

  1. 配合算法工程师推进深度学习算法落地,搭建高吞吐、低延时的大模型推理系统
  2. 聚焦推理性能优化,提升模型吞吐能力的同时严控算力成本
  3. 优化推理框架的易用性与可调试性,降低算法落地门槛

技能要求

  1. 熟练掌握C/C++、Python语言,具备计算机体系结构或软件开发背景,熟悉系统性能调优方法
  2. 具备基础的GPU编程能力,包括但不限于Cuda、OpenCL;熟悉至少一种GPU加速库,如cublas、cudnn、cutlass等
  3. 有Tensorrt/FasterTransformer/Tensorrt-llm/vllm等深度学习推理框架的实际使用经验
  4. 熟悉各类深度学习网络和算子底层实现细节,有训练和推理模型调试、调优实操经验者优先
  5. 熟悉CPU/GPU异构加速瓶颈分析方法,有服务器端AI芯片、GPU加速经验者优先
  6. 熟悉分布式推理常用加速方法,有超大模型分布式部署经验者优先

入门适配建议

从Tensorrt基础调优案例入手,理解推理加速的核心逻辑;重点积累异构加速瓶颈分析经验,逐步提升分布式推理系统搭建能力。

五、大模型训练框架研发工程师 | 北京/深圳

核心职责

  1. 参与大模型训练框架的开发与优化,支持单任务万卡以上规模的高效稳定训练
  2. 参与NLP、多模态大模型的结构设计,联合业务团队验证模型训练效率与效果
  3. 负责文生图、文生视频、文生3D等业务的训练性能加速工作
  4. 参与低精度训练性能优化与业务推广,推进大窗口训练性能优化落地

技能要求

  1. 熟练使用PyTorch框架,能够对DDP训练代码进行性能分析与优化
  2. 熟练使用DeepSpeed、Megatron等主流大模型训练框架,掌握3D并行、ZeRO机制、Flash-Attn等技术的原理、使用场景、优劣势及优化方向
  3. 有ViT、SD、DiT模型训练性能优化经验者优先
  4. 熟练掌握CUDA性能优化手段,有算子编写优化项目经验者优先
  5. 对大模型前沿技术敏感度高,具备主动探索能力者优先
  6. 有实际大模型训练调参与效果评测项目经验者优先
  7. 具备良好的沟通能力与问题解决能力,能够高效协同跨团队工作

入门适配建议

先从DeepSpeed、Megatron框架的基础使用入手,理解3D并行、ZeRO机制等核心技术;重点积累ViT、SD模型的训练优化经验,逐步提升万卡规模训练任务的支撑能力。

六、大模型强化学习研究员 | 北京

AI Lab长期深耕人工智能前沿技术,聚焦大模型算法创新与突破。现诚邀大模型强化学习方向专家级研究员,专注开发稳定高效的强化学习算法,在大模型复杂推理、Agent自主探索与学习等场景挖掘并提升模型能力。职级将根据候选人经验与成就综合评定。

核心职责

  1. 带领团队开展前沿算法研究,重点攻克大模型强化学习算法的设计与优化,研究方向包括但不限于强化学习算法、奖励建模、世界模型等
  2. 在大模型复杂推理、Agent自主探索与学习等场景开展大规模实验验证,推动研究成果行业落地,并发表有影响力的学术论文
  3. 探索大模型前沿技术,结合实际应用场景提供针对性的技术解决方案

技能要求

  1. 全球高校计算机科学、机器学习、人工智能等相关专业博士学历
  2. 有大模型前沿技术领域全球领先企业工作经验者优先
  3. 精通Python编程语言,具备基于PyTorch或TensorFlow等深度学习工具的技术开发经验
  4. 具备丰富的学术研究经验,在NeurIPs、ICLR、ICML、ACL、EMNLP等世界顶尖会议发表过相关文章,有深度学习学术或工程项目经验
  5. 具备良好的沟通能力与团队协作精神,能够协同跨职能团队推进项目突破

七、专家级研究员(大语言模型复杂推理方向)| 深圳

AI Lab核心研究岗位,聚焦大语言模型推理能力提升,推动前沿算法突破与行业落地。

核心职责

  1. 带领团队开展前沿算法研究,聚焦大语言模型推理能力提升,包括复杂问题推理、复杂任务分解与完成等方向,打造业界有广泛影响力的研究成果
  2. 开发高效、可扩展的新型模型架构与算法,推动大语言模型推理能力迭代升级
  3. 探索大语言模型前沿技术,结合实际应用场景提供技术解决方案
  4. 参与公司重大项目研发,提供专业技术指导与支持
  5. 跟踪全球大语言模型领域最新研究进展,为公司技术创新与发展提供战略建议

技能要求

  1. 全球高校计算机科学、机器学习、人工智能等相关专业博士学历
  2. 有大语言模型前沿技术领域全球领先企业工作经验者优先
  3. 精通Python或C++编程语言,具备基于PyTorch或TensorFlow等深度学习工具的技术开发经验
  4. 具备丰富的学术研究经验,在NeurIPs、ICLR、ICML、ACL、EMNLP等世界顶尖会议发表过相关文章,有深度学习学术或工程项目经验
  5. 具备良好的沟通能力与团队协作精神,能够协同跨职能团队推进项目进展
  6. 对技术充满热情,具备较强的创新意识与问题解决能力

八、AGI模型架构研究员 | 深圳

AI Lab核心研发岗位,致力于构建人类级乃至超人类级通用智能(AGI)核心系统架构。你将作为核心力量参与搭建具备多模态感知、自主学习与推理能力的大模型体系,推动模型在真实世界的通用泛化能力,目标构建原生支持视觉、语音、文本等多模态联合理解与生成的大模型系统,实现从AGI向ASI的跃升。

核心职责

  1. 设计具备多模态联合感知、推理、记忆与生成能力的统一大模型架构(覆盖视觉/音频/文本)
  2. 构建支持持续学习、多级记忆、主动探索与自演进的大模型系统
  3. 推进Agent化方向研发,使模型具备自主任务规划、跨模态交互、工具使用与自我优化能力,深度参与通用表征、音视频同频建模、世界模型、稀疏建模等关键模块设计

技能要求

  1. 精通Transformer类模型及其在语言、多模态领域的架构设计与优化
  2. 有构建或优化超大规模模型(>Billion-scale)的经验,熟悉SFT、RLHF、自监督等训练范式
  3. 在以下方向有深入理解或实践经验者优先:
  4. a、多模态模型(如视觉语言模型、音视频模型)
  5. b、强化学习、自主智能体系统
  6. c、复杂推理与规划(如search+LLM、世界建模)
  7. d、稀疏建模与动态路由机制
  8. e、具备良好的工程实现能力与系统性思维,能推动前沿研究在大模型系统中落地
  9. f、在NeurIPS、ICLR、CVPR、ACL等顶会/顶刊发表过相关方向论文

研究重点方向

  • 多模态统一架构:原生支持视觉、语音与文本的同频建模与跨模态推理
  • 持续学习与记忆机制:设计支持长期记忆调用与任务迁移的分离式架构(如Memory + Core Model)
  • 世界模型与因果推理:模型能预测环境状态、规划行为,并不断更新认知结构
  • 稀疏与模块化模型:探索高效、可扩展、可解释的超大规模稀疏架构
  • 自演进与主动数据生成:结合RL、自监督、环境交互等方式建立自我成长机制
  • 跨模态理解与生成:提升系统在真实物理环境中多模态联合生成与决策能力
  • 智能体能力迁移:任务泛化与工具组合使用能力的系统性设计与增强

九、语音与音频理解方向研究员(大模型与多模态方向)| 北京/深圳

AI Lab核心研究岗位,聚焦语音与音频领域大模型及多模态技术创新,推动语音交互体验升级。

核心职责

  1. 跟踪业界最新语音生成算法研究,探索下一代语音、音频生成新范式,拓展语音生成能力边界
  2. 探索多模态语音大模型前沿技术,结合文本、语音、视觉等技术提升语音交互体验
  3. 负责语音大模型技术研发,推动模型性能提升与创新应用落地

技能要求

  1. 计算机科学、人工智能、电子工程、信号处理等相关专业硕士及以上学历
  2. 具备语音大模型、语音合成、语音识别、音频生成、语音转换、语音Codec等一项或多项研究与开发经验
  3. 熟悉GPT4o、GLM-4-Voice、Qwen2.5-Omni、Voila等主流对话大模型,有相关项目实践经验者优先
  4. 熟练掌握PyTorch等深度学习框架,有Megatron/Deepspeed等大模型训练框架实践经验者优先
  5. 熟悉大模型相关结构设计及原理,有大规模预训练、后训练经验者优先

十、语音与音频理解方向研究员(语音生成方向)| 北京/深圳

AI Lab核心研究岗位,聚焦大规模多模态模型体系构建,推动人工智能系统对物理世界的全面感知与理解。你将加入语音与音频方向核心团队,围绕语音生成相关关键技术开展研究。

核心职责

  1. 研发具备通用能力的端到端语音大模型,覆盖多语言语音识别、语音翻译、语音合成、副语言信息理解、音频理解等方向
  2. 推进语音表征学习与语音编码/解码架构研究,构建适用于多任务、多模态的统一声学表征
  3. 探索音频和语音在多模态大模型中的表征对齐与融合机制,实现与图像、文本的联合建模
  4. 构建并维护高质量的语音多模态数据集,研发自动标注与数据合成技术

技能要求

  1. 计算机、电子工程、人工智能、语言学或相关领域博士学历,或硕士学历加多年相关工作经验
  2. 深入理解语音音频信号处理、声学建模、语言模型和大模型架构
  3. 熟练掌握语音识别、语音合成、语音翻译等一项或多项系统开发流程,具备多语言、多任务或端到端系统经验者优先
  4. 在以下方向具备深入研究或实践经验者优先:
  5. 语音表征预训练(如HuBERT、Wav2Vec、Whisper等)
  6. 多模态对齐与跨模态建模(音视频和文本)
  7. 有推动大模型在音频理解任务上达到SOTA性能经验者优先
  8. 熟练掌握PyTorch、TensorFlow等深度学习框架,有大规模训练与分布式系统经验者优先
  9. 精通Transformer类模型及其在语音、多模态领域的训练和推理

十一、大模型-精调算法工程师(问答&RAG方向)| 北京/深圳

核心职责

  1. 负责大语言模型知识问答能力的算法设计、优化与实现
  2. 搭建RAG体系,优化RAG链路关键模块,提升模型问答性能效果
  3. 调研业界前沿算法,跟踪技术动态,并落地应用于相关项目
  4. 参与产品讨论,基于技术视角提出产品改进建议

技能要求

  1. 有大语言模型应用经验者优先,包括精调(SFT)、强化学习(DPO、PPO)等技术落地经验
  2. 有RAG或LLM Agent应用落地经验者优先
  3. 熟悉TensorFlow、Keras、Pytorch等常规深度学习框架
  4. 熟悉自然语言处理领域常用理论与方法,掌握阅读理解、问答、搜索、语言模型、预训练等核心技术
  5. 具备良好的数学基础与英语阅读能力,有强烈的进取心、求知欲及团队合作精神,热衷于技术创新

入门适配建议

小白可先从Pytorch基础精调(SFT)入手,学习RAG基础架构搭建;重点积累问答场景的数据处理与模型调优经验,逐步提升复杂RAG链路的优化能力。

十二、大模型精调算法工程师(RAG可信方向)| 北京/深圳

核心职责

  1. 负责大语言模型知识问答能力的算法设计、优化与实现
  2. 搭建可信RAG体系,包括全网站、号一体化可信内容理解,构建质量&权威体系,优化内容索引、排序及RAG效果
  3. 调研业界前沿算法,跟踪技术动态,落地应用于相关项目
  4. 参与产品讨论,基于技术视角提出产品改进建议

技能要求

  1. 有大语言模型应用经验者优先,包括精调(SFT)、强化学习(DPO、PPO)等技术落地经验
  2. 有全网内容理解、质量权威建模、搜索召回排序经验者优先
  3. 熟悉TensorFlow、Keras、Pytorch等常规深度学习框架
  4. 熟悉自然语言处理领域常用理论与方法,掌握阅读理解、问答、搜索、语言模型、预训练等核心技术
  5. 具备良好的数学基础与英语阅读能力,有强烈的进取心、求知欲及团队合作精神,热衷于技术创新

十三、大模型推理能力方向研究员 | 北京/深圳

核心职责

  1. 负责大语言模型(LLM)规划、推理、反思能力的研究,提升模型高阶推理性能
  2. 跟踪推理领域前沿技术,将其融入大模型基座,持续迭代提升模型推理能力

技能要求

  1. 有大模型代码/数学/reasoning方向研发经历者优先
  2. 在post-training方向有研究基础,熟悉SFT/DPO/PPO/Reward Model等技术流水线
  3. 具备较强的工程实现能力,熟练使用Python语言,有实际编程项目经验,熟悉DeepSpeed、Megatron等分布式训练框架,熟练使用PyTorch深度学习框架
  4. 计算机科学、机器学习、统计学、应用数学等相关专业在校硕士、博士生
  5. 在高水平国际会议和学术期刊发表过相关论文,或有高水平竞赛获奖经历者优先

十四、大模型语音算法工程师 | 北京/深圳/上海

核心职责

  1. 负责大模型语音模态的设计、开发与优化,覆盖语音/音频数据清洗、模型设计、训练策略等研究与应用环节
  2. 参与语音识别、语音合成、声音克隆等大模型语音模态能力建设,提升跨模态整体效果

技能要求

  1. 计算机科学、机器学习、人工智能、应用数学等相关专业硕士及以上学历
  2. 在语音信号处理、大语言模型、深度学习等领域具备扎实的研究基础,掌握领域最新技术进展
  3. 具备较强的工程实现能力,熟练掌握C/C++、JAVA、Python等至少一种语言,熟练使用主流深度学习框架
  4. 有较强的学术比赛经验、在重要数据集Leaderboard上排名靠前,或在开源社区有较大影响力者优先
  5. 有高质量论文发表者优先(如INTERSPEECH、ICASSP、CVPR、AAAI、NIPS、TIP、ICCV、ECCV等)
  6. 具备激情与求知欲,拥有良好的团队合作与沟通能力

十五、多模态算法工程师 | 北京/深圳/上海

聚焦视频生成基模相关需求,涵盖RL背景后训练、数据科学研究、后训练负责人、扩散模型预训练负责人等方向。

核心职责

  1. 负责垂直场景多模态大模型研发,包括图文、视频、音频等多模态的预训练与SFT训练,探索合成数据在多模态训练中的应用
  2. 负责大模型安全、内容治理、电商等多场景业务的内容理解,包括多模态表征、图文/视频意图理解、相同/相似判断、自动问答等
  3. 跟踪并研究大模型前沿问题,应用技术手段解决实际业务痛点

技能要求

  1. 计算机科学、机器学习、人工智能、应用数学等相关专业硕士及以上学历
  2. 在CV、多模态领域有技术研发经验,了解LLM、多模态融合、人脸识别、目标检测等相关技术
  3. 熟悉TensorFlow或Pytorch等深度学习框架;了解Deepspeed、Meatron-LM等分布式训练框架,并有一定的多机多卡分布式训练经验
  4. 具备较强的工程实现能力,熟练掌握C/C++、JAVA、Python等至少一种语言
  5. 在NIPS/ICML/CVPR/ICCV/ECCV等顶级学术会议发表过论文者优先

入门适配建议

小白可先从图文多模态模型基础训练入手,学习Pytorch分布式训练基础;重点积累视频模态数据处理与模型调优经验,逐步提升复杂多模态场景的技术落地能力。

总结:大模型领域岗位覆盖研发、算法、研究等多个维度,小白可优先选择推理优化、精调算法等工程属性较强的岗位切入,从基础框架实操积累经验;资深程序员可聚焦框架研发、大规模训练优化等高阶方向突破。收藏本文,对照岗位技能要求针对性提升,助力高效切入大模型赛道!

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

为什么要学习大模型?

我国在A大模型领域面临人才短缺,数量与质量均落后于发达国家。2023年,人才缺口已超百万,凸显培养不足。随着AI技术飞速发展,预计到2025年,这一缺口将急剧扩大至400万,严重制约我国AI产业的创新步伐。加强人才培养,优化教育体系,国际合作并进是破解困局、推动AI发展的关键。

大模型入门到实战全套学习大礼包

1、大模型系统化学习路线

作为学习AI大模型技术的新手,方向至关重要。 正确的学习路线可以为你节省时间,少走弯路;方向不对,努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划,带你从零基础入门到精通!


2、大模型学习书籍&文档

学习AI大模型离不开书籍文档,我精选了一系列大模型技术的书籍和学习文档(电子版),它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。

3、AI大模型最新行业报告

2025最新行业报告,针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。

4、大模型项目实战&配套源码

学以致用,在项目实战中检验和巩固你所学到的知识,同时为你找工作就业和职业发展打下坚实的基础。

5、大模型大厂面试真题

面试不仅是技术的较量,更需要充分的准备。在你已经掌握了大模型技术之后,就需要开始准备面试,我精心整理了一份大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余

适用人群

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范
第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署
第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建
第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

需要专业的网站建设服务?

联系我们获取免费的网站建设咨询和方案报价,让我们帮助您实现业务目标

立即咨询