任务二项目七生成式人工AI本地部署Deepseek-r结合CherryStudio部署本地知识库
一名从事人工智能领域学习或研究的人员,手头有一批与人工智能相关的文档资料,希望通过为Deepseek-r部署本地知识库,让模型能够基于这些资料进行更精准的回答,辅助学习、研究和工作。任务分析DeepSeek-R1:专注于高级推理任务,专为复杂推理任务设计,强化了在数学、代码生成和逻辑推理领域的性能。通过大规模强化学习(RL)和冷启动技术,实现了与OpenAIo1系列相当的推理能力。任务情境
为Deepseek-r部署本地知识库,首先要确认Deepseek-r已在本地成功部署。接着,下载并安装CherryStudio工具,该工具将用于管理和配置本地知识库。安装完成后,对CherryStudio进行配置,使其能够与本地的Deepseek-r模型对接。然后,添加并导入知识库,将准备好的知识资料导入系统。最后,测试部署效果,对比使用和未使用本地知识库时模型对特定问题的回答,评估部署是否成功。
7.2.1环境检测确认deepseek-r是否ollama本地部署成功。打开命令行界面(Windows系统按下“Win+R”组合键,输入“cmd”后回车;Linux系统打开“终端”应用程序),在命令行中输入“ollamalist”并回车。查看命令行输出,若出现类似“deepseek-r1:1.5b”这样的模型信息,就表明deepseek-r已在ollama本地部署成功。任务实施
01下载cherrystudio7.2.2安装cherrystudiocherrystudio专注于帮助用户在多种场景下提升工作效率,支持多模型服务。集成主流LLM云服务和AIWeb服务,支持本地模型运行,还提供如Markdown渲染、智能体创建、翻译、文件上传和多模态对话等个性化功能。在与Deepseek-r结合部署知识库时,可实现深度整合,针对Deepseek-r的推理特性进行优化。
02开始安装7.2.2安装cherrystudio双击该安装包启动安装程序
03选择安装用户7.2.2安装cherrystudio设置用户选项
04选择安装位置7.2.2安装cherrystudio
01打开配置页面7.2.3配置cherrystudio
02配置模型服务在设置页面中,找到“模型服务”板块。确保“Ollama”选项处于勾选状态。“默认模型”选择与本地部署的deepseek-r对应的版本。完成设置后,可点击“检查”按钮,确认配置是否正确。
03管理Ollama模型在设置页面中找到“Ollama模型”选项,点击进入。在这里可以看到已安装的Ollama模型列表,选“deepseek-r1”和”nomic-embed-test:latest”后的“+”号,确保它们是选中状态。
04设置知识库管理页面在CherryStudio主界面中,找到“知识库”选项,点击进入知识库管理页面。
05DeepSeek-r1模型下载与运行依据所部署的计算机配置选择合适的模型版本,例如选择14b版本,指令是:ollamarundeepseek-r1:14b。在Ollama官网选择“DeepSeek-r1”模型版本(如14b/32b),选择32b,则如图所示。模型选择
06添加知识库点击“添加”按钮,弹出“添加知识库”窗口。在窗口中,“名称”处填写自定义的知识库名称,例如“测试知识库”;“嵌入模型”选择“nomic-embed-text:latest”,完成后点击“确定”按钮
07导入知识库在CherryStudio的“知识库”页面,选中刚刚添加的“测试知识库”,点击“添加文件”按钮。两种方式导入文件,一是直接在文件选择窗口中找到存放文件的文件夹,选中要导入的文件后点击“打开”;二是将文件直接从文件资源管理器中拖拽到指定的“拖拽文件到这里”区域。
08使用本地模型deepseek-r在CherryStudio主界面,确保选择的是本地部署的deepseek-r模型在输入框中输入想要询问的问题,并提交。
可能是安装包损坏或系统环境不兼容CherryStudio安装失败检查API地址是否正确,Ollama服务是否正常运行配置错误检查文件格式是否受支持,文件路径是否包含特殊字符或过长知识库导入问题常见问题解决
通过本任务学习,重点掌握了使用CherryStudio