基本信息
文件名称:DeepSeek+Coder:当大型语言模型遇到编程时-代码智能的兴起.pdf
文件大小:2.22 MB
总页数:24 页
更新时间:2025-03-21
总字数:约5.45万字
文档摘要

DeepSeek-Coder:当大型语言模型遇到编程时-代码智

能的兴起

郭大雅*1,朱启浩?1,2、杨德建1,谢振达1、启东1,张文涛1

日陈官厅1、小碧1,Y.Wu1,Y.K.Li1、罗富力1,熊英飞2,梁文峰1

6

21DeepSeek-AI

2HCST(PKU)教育部重点实验室;北京大学SCS

月{zhuqh,guodaya}@deepseek.comhttps://github

1.com/deepseek-ai/DeepSeek-Coder

4Abstract

2

0

2

大型语言模型的快速发展已彻底革新了软件开发中的代码智能。然而,主要依赖闭源模型限制

]了广泛的研究与开发。为解决这一问题,我们推出了DeepSeek-Coder系列开源代码模型,其

E

S规模从13亿到330亿不等,并从2万亿个标记中从头开始训练。这些模型预先在高质量的项目

级代码语料库上进行训练,并采用16K窗口的填空任务来增强代码生成和填补。我们的广泛评

s.估表明,DeepSeek-Coder不仅在多个基准测试中实现了开源代码模型的最佳性能,还超越了

c现有的闭源模型如Codex和GPT-3.5。此外,DeepSeek-Coder模型处于宽松的许可之下,允

[许同时进行研究和无限制的商业使用。

2

v

6

9

1

4

1

.

1

0

4

2

:

v

i

X

r

a

图1|DeepSeek-Coder的性能

*核心贡献者,按名称字母顺序排序。

1.Introduction

软件开发领域因大型语言模型的迅速进步(OpenAI,2023;Touvronetal.,2023)而得到了显

著转型,这些模型带来了代码智能的新时代。这些模型有可能自动化和简化许多编码方面的工

作,从错误检测到代码生成,从而提高生产力并减少人为错误的可能性。然而,该领域的重大

挑战之一是在开源模型(Lietal.,2023;Nijkampetal.,2022;Rozieretal.,2023;Wanget

al.,2021)与闭源模型(GeminiTeam,2023;OpenAI,2023)之间的性能差距。尽管巨型闭

源模型非常强大,但由于其专有性质,许多研究人员和开发者仍然难以访问这些模型。

为了应对这一挑战,我们推出了DeepSeek-Coder系列。该系列包括一系列开源代码模型,规

模从13亿到33亿不等,涵盖每个规模的基版本和指令版本。每个系列中的模型均从87种编程

语言中提取的2万亿个标记重新训练,确保对编程语言和语法有全面的理解。此外,我们尝试

在仓库级别组织预训练数据,以增强模型在仓库内部跨文件上下文中的理解能力。除了在预训

练过程中使用下一个标记预测损失外,我们还引入了Fill-In-Middle(FIM)方法(Bavarianet

al.,2022;Lietal.,2023)。这种方法旨在进一步提升模型的代码完成能力。为满足处理更长

代码输入的要求,我们将上下文长度扩展到16K。这一调整使我们的模型能够处理更加复杂和

广泛的编码任务,从而增强了其在各种编码场景中的适用性和灵活性。

我们使用多种公开的代码相关基准进行了全面的实验。研究发现,在开源模型中,DeepSeek-

Coder-Base33B在所有基准测试中均表现出优越的性能。此外,

OpenAIGPT-3.5Turbo

Coder-Instruct33B超越在大多数评估基准中,

OpenAIGPT-4

显著缩小两者之间