基本信息
文件名称:DeepSeek完全实用手册1.0版:从技术原理到使用技巧.pptx
文件大小:11.75 MB
总页数:115 页
更新时间:2025-07-03
总字数:约1.58万字
文档摘要

DeepSeek完全实用手册

—从技术原理到使用技巧—

2025年2月;

一、DeepSeek是谁

二、DeepSeek技术路线解析

三、DeepSeek调用与部署

四、如何使用DeepSeek

结语趋势判断;;;

过去两年中,中国AI模型在业内曾被认为落后于美国模型半年到一年。

DeepSeekR1模型的出现终结了中国AI落后的观点。;;

开源的优劣

与闭源模型的策略相比,将模型开源的策略可以获得更多开发者关注使用和共同开发,利于构建影响力和实现普惠。但难以获得商业利润。

闭源的优劣

将最先进的技术保密,有利于持续保有市场竞争力,实现商业化获利。但吸引开发者较少,且不利于社会整体技术进步。;;

OpenAI创始人SamAltman:DeepSeekR1是一个令人印象深刻的模型,尤其是能够以这样的价格提供卓越性能。我们(OpenAI)显然会推出更好的模型,同时,有一个新的竞争对手加入确实让人感到振奋!

微软CEOSatyaNadella:DeepSeek的新模型非常令人印象深刻,他们不仅有效地实现了一个开源模型,实现了推理时间计算,而且计算效率极高。

AI投资机构a16z创始人MarcAndreessen:DeepSeekR1是他所见过的最令人惊叹、最令人印象深刻的突破之一,是给世界的一份深刻礼物。

EurekaLabs创始人AndrejKarpathy:DeepSeekR1与OpenAI的模型在性能上旗鼓相当。

Perplexity创始人AravindSrinivas:DeepSeek是人工智能和开源的重大进步。人工智能模型和使用这些模型的产品需要最大限度地寻求真相。输出越虚假,使用这些模型或其输出(直接作为用户)和间接(用于提炼)就越危险。

NVIDIA资深研究经理JimFan:DeepSeek不仅开源了一系列模型,更难能可贵的是公开了所有训练细节。;

一、DeepSeek是谁

二、DeepSeek技术路线解析

三、DeepSeek调用与部署

四、如何使用DeepSeek

结语趋势判断;;;

MLA的核心是对注意力键和值进行低秩联合压缩,减少推理过程中的键值缓存(KVcache),从而降低推理时的内存占用。;;

模型训练通常采用FP16或FP32精度的数据格式以保证训练效果,如果换成低精度即可降低存储占用,但往往受到激???、权重和梯度中异常值的限制。

为了解决这个问题,DeepSeek采用了混合精度框架,使用细粒度量化策略、低精度优化器状态等方法以实现增强精度、低精度存储和通信,同时DeepSeek向硬件厂商也提出了硬件设计的相关建议。;;

答:DeepSeekV3成本并非是550万美元。

DeepSeekV3技术报告明确指出,预训练、上下文延长、后训练等三个训练过程共花费约558万美元。准确来说,除了公开的训练成本,模型总成本还应考虑人员成本、研发成本、数据成本、其他固定成本等。;

答:没有证据说明DeepSeekR1蒸馏数据来源于OpenAI。

OpenAI声称掌握证据并指控DeepSeek违反OpenAI服务规定使用其数据用于训练R1模型,但并未拿出有力证据。此前OpenAI曾因违规使用纽约时报数据训练模型被告侵权。此外,业界有其他公司利用OpenAI数据训练自己的模型,但并未取得好的效果。;

术语解读-CUDA

CUDA全称为计算统一设备架构,是一个专有的并行计算平台和应用程序编程接口。开发者使用CUDA接口,便于关注软件算法,无需关注硬件本身每一步是如何具体运行的。

术语解读-PTX

PTX全称为并行线程执行,是Nvidia的CUDA编程环境中使用的低级并行线程执行虚拟机和指令集架构。PTX比CUDA更靠近硬件层。;

一、DeepSeek是谁

二、DeepSeek技术路线解析

三、DeepSeek调用与部署

四、如何使用DeepSeek

结语趋势判断;

?云端调用

?云端调用,可通过官方API或第三方API直接调用DeepSeekR1模型服务并接入业务中;或者可以在云平台上创建、部署、微调模型,再通过API连接模型调用。

?云端调用优势在于,用户无需购置硬件即可按需调用云端模型。;

来源:SuperCLUE;

API服务

?DeepSeek官方:R1模型每百万token,输入价格为1元(命中