基本信息
文件名称:大语言模型服务管理的实践分享.docx
文件大小:11.8 MB
总页数:30 页
更新时间:2025-03-26
总字数:约5.91千字
文档摘要

大语言模型服务管理的实践分享

王夕宁/马元元阿里云

演讲嘉宾

王夕宁

阿里云容器服务技术研发负责人

阿里云容器服务Kubernetes及ServiceMesh技术研发负责人,拥有100多项相关领域的国际技术专利,专注于Kubernetes/云原生/服务网格等领域。

曾在IBM研发中心工作,担任资深架构师和技术专家,主导和参与了一系列SOA中间件和云计算领域的产品研发,并曾担任中国研发中心专利技术评审委员会主席。出席过行业内多个技术大会,包括Kubecon、

InfoQ、ArchSummit、IstioCon和云栖大会等。同时,著有畅销书《Istio服务网格解析与实战》。

1.LLM服务管理的特征与挑战

目录CONTENTS

目录

CONTENTS

3.现有的技术基础之上扩展支持

4.MSM:用于管理GenAI/LLM工作负载的统一方式

PART01

LLM服务管理的特征与挑战

GenAI/LLM服务管理面临独特的挑战

传统网络流量管理

GenAI/LLM流量管理

?请求/响应大小较小

?由于多模态流量,请求/响应大小较大

?许多查询可以并行处理

?单个大语言模型查询经常占用100%的TPU/GPU计算时间

?请求一到达就进行处理

?请求等待可用的计算资源

?处理时间以毫秒计算

?处理时间从几秒到几分钟不等

?相似请求可以从缓存中得到处理

?每次请求通常生成唯一内容

?请求成本由后端管理

?根据请求将流量路由到更便宜或更昂贵的模型

?传统的轮询或基于利用率的流量管理

?具备AI感知的负载均衡能力

流量请求调度TrafficRequestScheduling

由于GenAI/LLM模型的?回归特性,LLM推理请求的有效服务?临不可预测的执?时间的挑战。

LLM服务系统?多采?先进先出(FCFS)调度,遭受??阻塞(head-of-line)问题。

基于历史数据和模型特性,训练出一个代理模型,用于预测每个推理请求的序列长度。

利用代理模型的序列长度预测的推测最短作业优先(SSJF)调度器。

PART02

应对思路与方案

SSJF调度器-引入Token长度预测器

End

Users

请求批 处理Request

请求批

处理

RequestPool

R1请

R1

R2队

R2

的处理列R3Model, Input

的处理

R3

···

···

预测Token长度

?输出Token长度(N)决定了请求的执行时间(T),因为T=C+K×N,?K是生成一个标记的延迟,

?C是模型服务系统的开销,包括DNS查找、代理、排队和输入标记化。

?K取决于模型优化技术(例如,量化)和执行环境(例如,硬件),对于所有输入都是相同的。

?输出Token长度决定执行时间(线性关系)

Ref:/James-QiuHaoran/LLM-serving-with-proxy-models

智能工作负载优先级调度

令牌桶

令牌填充率

?服务在处理每个请求之

获得令牌或者

获得令牌或者继续等待

令牌?

?加权公平排队调度器实

?

加权公平排队调度器实施优先级和公平性。

WFQ调度器高优先级

WFQ调度器

高优先级

分类

分类

获得令牌的请

获得令牌的请求处理

目标服务中优先级

目标服务

中优先级

丢弃的请求处理

丢弃的请求处理

?对请求进行标记

?对请求进行标记

低优先级

低优先级

智能工作负载管理-流量调度管理套件

优先处理工作负载,保障关键用户体验路径使用权重公平排队,根据业务价

优先处理工作负载,保障关键用户体验路径

使用权重公平排队,根据业务价值和请求紧急程度调整资源分配,来实现应用程序的优雅降级

?

??超出此限制的任何请求将进入队列,并根据它们的优先级在有能力提供服务时予以处理

?

?用于根据重要性调度请求,同时确保应用遵守并发限制。

流量调度管理套件

统一的流量请求调度器

?基于闭环反馈来逐步增加系统的工作负荷或请求量,而不是瞬间施加大的负载。

?基于闭环反馈来逐步增加系统的工作负荷或请求量,而不是瞬间施加大的负

载。

?能够帮助系统逐步适应增加的负荷,从而确保系统在负载增加过程中仍然稳定运行,并最大限度地减少对系统的冲

击。

?

统一的策略资源定义及

控制器

?通过细粒度标签识别单个用户,根据业务特定标签控制爆发能力和填充速率;

?

?限制每个用户或全局并发中请求的并发量;

?

?通过缓存成本高昂的操作,防止对按使用付费