DeepSeek完全实用手册
—从技术原理到使用技巧—
2025年2月;
一、DeepSeek是谁
二、DeepSeek技术路线解析
三、DeepSeek调用与部署
四、如何使用DeepSeek
结语趋势判断;;;
过去两年中,中国AI模型在业内曾被认为落后于美国模型半年到一年。
DeepSeekR1模型的出现终结了中国AI落后的观点。;;
开源的优劣
与闭源模型的策略相比,将模型开源的策略可以获得更多开发者关注使用和共同开发,利于构建影响力和实现普惠。但难以获得商业利润。
闭源的优劣
将最先进的技术保密,有利于持续保有市场竞争力,实现商业化获利。但吸引开发者较少,且不利于社会整体技术进步。;;
OpenAI创始人SamAltman:DeepSeekR1是一个令人印象深刻的模型,尤其是能够以这样的价格提供卓越性能。我们(OpenAI)显然会推出更好的模型,同时,有一个新的竞争对手加入确实让人感到振奋!
微软CEOSatyaNadella:DeepSeek的新模型非常令人印象深刻,他们不仅有效地实现了一个开源模型,实现了推理时间计算,而且计算效率极高。
AI投资机构a16z创始人MarcAndreessen:DeepSeekR1是他所见过的最令人惊叹、最令人印象深刻的突破之一,是给世界的一份深刻礼物。
EurekaLabs创始人AndrejKarpathy:DeepSeekR1与OpenAI的模型在性能上旗鼓相当。
Perplexity创始人AravindSrinivas:DeepSeek是人工智能和开源的重大进步。人工智能模型和使用这些模型的产品需要最大限度地寻求真相。输出越虚假,使用这些模型或其输出(直接作为用户)和间接(用于提炼)就越危险。
NVIDIA资深研究经理JimFan:DeepSeek不仅开源了一系列模型,更难能可贵的是公开了所有训练细节。;
一、DeepSeek是谁
二、DeepSeek技术路线解析
三、DeepSeek调用与部署
四、如何使用DeepSeek
结语趋势判断;;;
MLA的核心是对注意力键和值进行低秩联合压缩,减少推理过程中的键值缓存(KVcache),从而降低推理时的内存占用。;;
模型训练通常采用FP16或FP32精度的数据格式以保证训练效果,如果换成低精度即可降低存储占用,但往往受到激???、权重和梯度中异常值的限制。
为了解决这个问题,DeepSeek采用了混合精度框架,使用细粒度量化策略、低精度优化器状态等方法以实现增强精度、低精度存储和通信,同时DeepSeek向硬件厂商也提出了硬件设计的相关建议。;;
答:DeepSeekV3成本并非是550万美元。
DeepSeekV3技术报告明确指出,预训练、上下文延长、后训练等三个训练过程共花费约558万美元。准确来说,除了公开的训练成本,模型总成本还应考虑人员成本、研发成本、数据成本、其他固定成本等。;
答:没有证据说明DeepSeekR1蒸馏数据来源于OpenAI。
OpenAI声称掌握证据并指控DeepSeek违反OpenAI服务规定使用其数据用于训练R1模型,但并未拿出有力证据。此前OpenAI曾因违规使用纽约时报数据训练模型被告侵权。此外,业界有其他公司利用OpenAI数据训练自己的模型,但并未取得好的效果。;
术语解读-CUDA
CUDA全称为计算统一设备架构,是一个专有的并行计算平台和应用程序编程接口。开发者使用CUDA接口,便于关注软件算法,无需关注硬件本身每一步是如何具体运行的。
术语解读-PTX
PTX全称为并行线程执行,是Nvidia的CUDA编程环境中使用的低级并行线程执行虚拟机和指令集架构。PTX比CUDA更靠近硬件层。;
一、DeepSeek是谁
二、DeepSeek技术路线解析
三、DeepSeek调用与部署
四、如何使用DeepSeek
结语趋势判断;
?云端调用
?云端调用,可通过官方API或第三方API直接调用DeepSeekR1模型服务并接入业务中;或者可以在云平台上创建、部署、微调模型,再通过API连接模型调用。
?云端调用优势在于,用户无需购置硬件即可按需调用云端模型。;
来源:SuperCLUE;
API服务
?DeepSeek官方:R1模型每百万token,输入价格为1元(命中