基本信息
文件名称:北京大学-DeepSeek私有化部署和一体机.pptx
文件大小:19.87 MB
总页数:121 页
更新时间:2025-03-15
总字数:约小于1千字
文档摘要

;;;;;;;;;;;;;

对比维度;;;;;;;;;;;;;;;;

30;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;

PART03;

1.Ollma框架适合个人用户私有化本地部署,但在多用户并发场景下性能衰减

明显。这一部分我们将尽可能简单地介绍企业级私有化部署的方案和探索实践,普通用户可以了解即可。

2.企业级生产环境推荐使用Transformers来快速验证模型能力,使用vLLM框架借助PagedAttention技术实现24倍于Transformers的吞吐量实现大模型的高效推理,针对不同企业场景,则提供不同的企业级部署方案,我们也会分享服务器配置、性能数据及报价参考等实战经验,且深度分析业务场景的适配性,给予参考帮助。

3.同时,针对近期出现的KTransformers、Unsloth等多套低成本动态量化模型的DeepSeek部署解决方案。虽然不够成熟也无法投入实际生产使用,但我们也会用一定的篇幅分享我们的研究实践和经验。;;;;;;;;;;;;;;;;

随着DeepSeek的爆火,低成本实现更好模型性能的部署方式受到广泛关注,

目前出现了KTransformers、Unsloth等多套解决方案。我们通过实践发现,

现有的低成本部署方案尚不足以满足企业级应用需求,仍处于研究阶段,更适合个人或小团队用于研究参考,其重点在于探索在成本效益下实现部署,最大优势是显著节约成本。下面我们将对于这些解决方案分别进行数据和经验分享。

注意:后面这一部分低成本部署DeepSeek的内容(约30页),也是在快速严谨和变化的技术内容,目标是让大家简单了解这种低成本部署方案,不是了解DeepSeek本地化部署必须掌握的内容。;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;

121