SGLang:面向大模型服务化的高吞吐推理框架综述
(基于 2025 年 12 月最新开源进展)
一、引言
随着 Llama-3-405B、DeepSeek-V3、Kimi-K2 等千亿级模型密集开源,推理端“高并发、低延迟、低成本”成为新的技术瓶颈。SGLang(Structured Generation Language)由 UC Berkeley LMSYS 团队于 2024 年发起,2025 年形成中美联合开源社区,已成为 GitHub 增速最快的推理框架之一(星标 2.5 k+)。其核心定位是“让任意大模型在多硬件、多场景、多用户条件下跑出理论峰值的 90 %”,并首次把“结构化生成”作为一等公民引入引擎内部。
二、总体架构
前端:Python DSL + OpenAI-Compatible Server
开发者用@sgl.function装饰器即可把 prompt 写作可复用、可组合、可单元测试的“程序”,同时暴露/v1/chat/completions标准接口,老业务零成本迁移 。调度器:CPU-GPU 协同双循环
请求 → Pre-Schedule(Radix 前缀匹配、内存预算)→ Compute Batch(Prefill/Decode 分离)→ Sample(GPU)→ Post-Schedule(缓存回填)→ next Schedule,全链路异步零拷贝 。运行时:模块化后端
支持 FlashAttention-3、CUTLASS、CuDNN、昇腾 CANN、AMD ROCm 五条代码路径,同一套 Python 调度代码可透明切换硬件 。
三、关键技术创新
RadixAttention——跨请求 KV-Cache 前缀复用
基于 LRU 基数树,把“提示词+已生成结果”长期驻留显存;多轮对话、Agent 工具链、RAG 上下文等典型场景下,Cache 命中率 > 80 %,Llama-70B 实测吞吐比 vLLM 高 3.1 倍 。PD 分离(Prefill-Decode Disaggregation)
将计算密集的 Prefill 阶段与内存密集的 Decode 阶段拆池;64 k 长文本场景下,单卡昇腾 910B 可跑 15 TPS,TTFT ≈ 4 s,TPOT ≈ 20 ms,PD 传输 < 8 ms 。投机采样全家桶
社区与美团联合开源 SpecForge,基于 Eagle3 做训练后投机;万亿 MoE 模型端到端提速 2.18 倍,且保持 bit-wise 正确,首次实现“训练-推理”一键闭环 。结构化生成(Structured Generation)
在解码阶段实时按正则/JSON Schema 约束输出,无需后处理;API 调用、函数调用、数据提取场景下,首 token 延迟降低 40 %,错误率下降 90 % 。多级量化与内存压缩
已落地 FP8、W4A8、Block-FP8,2025 Q4 合入 FP4;配合 CPU/NPU 三级缓存,可把 200 k 长序列显存占用压缩 55 % 。
四、模型与硬件生态
- Day-0 支持:DeepSeek V3/R1、Qwen-Next、Kimi-K2、Llama-3.1-405B、Flux-Image 等稠密 / MoE / 多模态模型 。
- 硬件:NVIDIA Hopper、Ada;AMD MI300;Intel Gaudi-3;华为昇腾 910B、310P;Google TPU v5e;生产环境已部署 30 + 万卡 。
五、性能基准
- Llama-70B + 2048 in/128 out、32 并发:SGLang 2300 token/s,vLLM 740 token/s,TensorRT-LLM 1100 token/s(NVIDIA H100 8-GPU)。
- DeepSeek-V3 在昇腾 910B 单卡:PD 分离后 15 TPS,相对合池方案提升 5×;FP8 量化再提 1.8× 。
六、典型应用场景
- Chatbot Arena:日活千万级对话,RadixAttention 把平均延迟从 1.8 s 压到 0.6 s。
- 美团搜推:SpecForge 线上 AB,GPU 成本年省 3000 万元。
- 阿里云 PAI:一键镜像 5 分钟拉起 128 k 长文本 API 服务。
- 边缘 AI:Intel CPU + OpenVINO 后端,70B 量化模型在 2×Sapphire Rapids 上跑 10 token/s。
七、开放问题与未来方向
- 万卡级弹性:PD 池子如何根据潮汐流量秒级扩缩容?
- 长序列 1 M+:稀疏局部注意力与 Radix 树如何协同?
- 统一多模态:文本-图像-视频-音频共享同一调度器,内存池怎么切?
- RL 在线训练:SGLang-VeRL 如何把 rollout 延迟压到 30 ms 以内?
八、结论
SGLang 用“RadixAttention + PD 分离 + 投机采样”三把斧,把大模型推理从“能跑”推向“跑得又快又省又稳”。在稀疏化、长序列、结构化生成三大趋势下,它已成为业界少有的“全栈、跨硬件、零门槛”开源基座。随着 2026 年 FP4、1 M 上下文、多模态统一引擎的落地,SGLang 有望继续拉大与同类框架的性能差距,成为 LLM 推理的“Linux Kernel”时刻。