DeepSeek洞察与大模型应用
人工智能技术发展与应用实践
联通数据智能有限公司
史树明
2025年
目录
Contents
01
02
03
04
05
主流大模型与
主流大模型与
大慎型的应用场景
大慎型的应用场景
DeepSeek公司概况
?DeepSeek是私募量化巨头幻方量化旗下的一家大模型企业,成立于2023年5月份。
?幻方量化营收:作为中国头部量化对冲基金,曾管理资金规模超160亿美元(2019年),年管理费收入超过3亿美元。
-2-
DeepSeek-V3
。DeepSeek-V3(对标GPT-4o)于2024年12月26日推出,因其显著的性能,用户迅速开始增长
。
。
。。?Deepseek-V3仍是基于Transformer架构的模型,是一个强大的混合专家(MoE)模型,总共有671B个参数,生成每个token时激活37B参数
。
。
。?训练成本比Llama405B低一个量级
。
。?DeepSeek-V3所采用的技术:
。
?MLA多头潜在注意力机制(降低显存占用)
?MTP多token预测(提升效果、提升推理速度)
?FP8混合精度训练、DualPipe流水线、MoE负载均衡(提升训练效率,降低训练成本)
DeepSeek-V3多项评测成绩超越了Qwen2.5-72B和Llama-3.1-405B等其他开源模型,并在性能上和
世界顶尖的闭源模型GPT-4o以及Claude-3.5-Sonnet不分伯仲。
-3-
DeepSeek-R1
DeepSeek-R1(对标GPT-o1)于2025年1月20日推出,随后DeepSeek进一步出圈
?R1推出后,追平GPT-o1,迅速出圈海外。从
DeepSeek在美国下载排名从1月22日的201名,迅速在1月27日登顶第一名;截止1月30日,DeepSeek在168个国家位居下载榜第一名
?DeepSeek-R1-Zero:一种通过大规模强化学习(RL)训练的模型,没有监督微调(SFT)作为初步步骤,展示了卓越的推理能力。通过强化学习,R1-Zero自然而然地出现了许多强大而有趣的推理行为;但是,遇到了可读性差和语言混合等挑战
?DeepSeek-R1:为了解决这些问题并进一步提高推理性能,DeepSeek团队引入了R1,它在RL之前结合了多阶段训练和少量冷启动数据。R1在推理任务上实现了与OpenAI-o1-1217相当的性能
-4-
DeepSeek模型效果(1/2):世界最顶尖模型的对比
nDeepSeek-V3和R1进入到国际顶尖模型行列
nDeepSeek-R1是综合效果最好的开源模型,排在众多优秀的开源和闭源模型前面
nQwen2.5-Max、GLM-4-Plus、Step-2-16K-Exp等国产模型也有不俗的表现
大模型竞技场(ChatbotArenaLLMLeaderboard,https://lmarena.ai/?leaderboard)
5更新日期:2025-2-11
5
DeepSeek模型效果(2/2)
nDeepSeek-V3和R1相对于700亿以下开源模型(以千问720亿为代表),多项能力明显提升,扩充了其能力边界
n
nDeepSeek-R1引入深度推理能力,在代码、数学、复杂规划等方面的能力显著增强,使得对于新场景的支持成为可能
n
-6-
DeepSeek不同版本对比
nV3vs.R1:R1在普通的中文和英文任务上性能小幅领先,在数学和代码等需要深度推理的场景下明显胜出
nR1蒸馏版vs.R1满血版:在数学、代码等场景下的性能有明显差距,蒸馏版参数量越小,与满血版差距越大
模型架构参数量激活参数R1的15亿蒸馏版稠密1.5B1.5BR1的70亿蒸馏版稠密7B7BR1的140亿蒸馏版稠密
模型
架构
参数量
激活参数
R1的15亿蒸馏版
稠密
1.5B
1.5B
R1的70亿蒸馏版
稠密
7B
7B
R1的140亿蒸馏版
稠密
14B
14B
R1的320亿蒸馏版
稠密
32B
32B
R1的80亿蒸馏版
稠密
8B
8B
R1的700亿的蒸馏版
稠密
70B
70B
DeepSeek-R1
MoE
671B
37B
DeepSeek-V3
MoE
671B
37B
模型
AIME
2024
MATH-
500
GPQA
Diamond
LiveCode
Bench
CodeForces
pass@1
pass@1
pass@1
pass@1
rating
R