基本信息
文件名称:生成式人工智能 课件 7-1本地部署 .pptx
文件大小:9.62 MB
总页数:25 页
更新时间:2025-06-05
总字数:约4.28千字
文档摘要

任务一项目七生成式人工AI本地部署DEEPSEEK本地部署时间

目录01DEEPSEEK本地部署方法一02DEEPSEEK本地部署方法二

李强是一名对新技术充满好奇的普通用户,在日常学习或工作中,经常需要处理大量文本,如撰写报告、分析资料等。你了解到DeepSeek可以在这些方面提供帮助,于是希望在自己的电脑上部署DeepSeek,方便随时使用。李强担心自己缺乏专业知识,无法完成部署任务。任务分析要完成DeepSeek的本地部署,需要按照一定的顺序进行操作。首先要明确所需的硬件和软件条件,准备好相应资源。接着,下载DeepSeek及其依赖,并进行安装和配置。在这个过程中,可能会遇到各种问题,需要掌握基本的问题排查方法。部署完成后,还需要对DeepSeek进行测试,确保其能正常工作,并进行简单的优化,提升使用体验。任务情境

DeepSeek本地部署的概念与原理首先,用户将DeepSeek的模型,如自然语言处理、图像识别等模型部署在本地服务器或私有云环境中。数据的存储、计算和传输都在内部网络完成,用户对数据拥有完全的控制权,可自主决定数据的使用、管理和安全策略,避免数据外传。其次,部署后的DeepSeek模型无需依赖互联网即可运行。在一些网络稳定性差或对网络依赖度低的场景中,如偏远地区的工业监测、野外科研数据处理等,能确保业务的连续性和稳定性。最后,可根据不同业务场景和需求,对模型参数进行调整、优化,或进行二次开发。任务实施

01部署前的准备7.1.2DeepSeek本地部署方法一硬件配置处理器:IntelCorei5/AMD同级,内存:≥8GB,硬盘:≥20GB可用空间,显卡:推荐NVIDIA(非必需)。软件环境操作系统:Windows10+/Ubuntu18.04+,工具:Ollama、Python(方法二)。

02下载OllamaOllama是一个轻量级的本地大模型运行框架,旨在让用户能够在本地设备上快速部署和运行大语言模型(LLM)。它提供简洁的CLI(命令行接口)和API,使开发者能够轻松加载、管理和运行如LLaMA、Mistral等主流开源模型,而无需复杂的环境配置。Ollama具有高效的推理能力,并支持模型的自定义与微调,适用于离线推理、隐私保护和个性化AI应用开发。

03下载Ollama下载Ollama安装包,验证安装:桌面或开始菜单中出现Ollama图标。Ollama的下载

04安装Ollama(1)下载完成后,找到下载的安装包文件(通常在“下载”文件夹中),双击运行。(2)在弹出的安装向导窗口中,按照提示点击“下一步”,选择安装路径等选项(默认安装在C盘即可)。(3)等待安装完成,安装完成后可在桌面或开始菜单中找到Ollama图标。

05DeepSeek-r1模型下载与运行依据所部署的计算机配置选择合适的模型版本,例如选择14b版本,指令是:ollamarundeepseek-r1:14b。在Ollama官网选择“DeepSeek-r1”模型版本(如14b/32b),选择32b,则如图所示。模型选择

05DeepSeek-r1模型下载与运行(2)打开命令行窗口。在Windows系统中,按下“Win+R”组合键,输入“cmd”,然后点击“确定”打开命令提示符窗口;在Linux系统中,打开“终端”应用程序。(3)将复制的指令粘贴到命令行窗口中,按下回车键。(4)部署成功,可以在命令行窗口中直接与模型进行对话,如图所示。

06可视化工具安装如果你希望有一个更直观的交互界面,可以安装ChatboxAI可视化工具。(1)下载打开浏览器,访问ChatboxAI官网,如图7-7所示。在官网页面中,找到“免费下载”按钮,点击开始下载。

06可视化工具安装(2)安装①下载完成后,找到下载的安装包文件,双击运行。②选择“仅为我安装”,然后点击“下一步”。③选择安装路径(建议预留10GB空间),点击“下一步”至安装完成。④安装完成后,ChatboxAI会自动运行,如图所示。选择“使用本地模型”。

06可视化工具安装(2)安装⑤选择Ollama,即可通过ChatboxAI进行可视化操作,与DeepSeek-r1模型进行交互。

更换网络环境下载缓慢仔细检查指令是否复制完整、准确,同时确认命令行窗口是否以管理员身份运行命令行错误检查Ollama是否已经正常运行,以及在ChatboxAI中选择的本地模型选项是否正确可视化工具无法连接常见问题解决

意义在本地环境中安装深度学习框架,如PyTorch、Ten