基于大模型的 RAG 核心开发——详细介绍 DeepSeek R1 本地化部署流程

前言

自从 DeepSeek 发布后,对 AI 行业产生了巨大的影响,以 OpenAI、Google 为首的国际科技集团为之震惊,它的出现标志着全球AI竞争进入新阶段。从以往单纯的技术比拼转向效率、生态与战略的综合较量。其影响已超越企业层面,涉及地缘政治、产业政策与全球技术治理,它彻底改变“美国主导创新、中国跟随应用”的传统格局,形成多极化的技术权力分布。
DeepSeek 的开源性彻底打破了 OpenAI 等公司通过 API 接口调用,依赖 token 计费的单一规则。因为 DeepSeek 是一个开源的产品,任何人都可通过 GitHub 等途径下载它的核心源代码,这种开源方案有点类似当年的 Android / 鸿蒙发展策略。任何人都可以为 DeepSeek 开发某项额外的功能,为DeepSeek 的茁壮成长贡献自己的一份力量。
它包括了 DeepSeek R1 / DeepSeek V3 / DeepSeek Coder V2 / DeepSeek VL / DeepSeek V2 / DeepSeek Coder / DeepSeek Math / DeepSeek LLM  等多个不同的模型,以适应不同领域的应用。私人开发者可以下载 DeepSeek R1 检心框架进行调试,如果企业调用 DeepSeek 的 API 接口,也需要按 token 收费,然而费用不到 ChatGDP 的十分之一,对企业来说是相当有良心。DeepSeek 的 R1 模型支持本地化部署,用户可以在企业服务器内单独部署自己的 DeepSeek 模型,以适应各自的领域需求。
废话不多说,下面为大家介绍 DeepSeek R1 的本地化部署流程。

 

一、运行环境要求

1. 硬件配置‌

  • 独立显卡(推荐 NVIDIA 1060 以上 GPU显存 ≥ 6GB)‌
  • CPU、内存及存储需满足模型参数规模(如1.5B/7B/14B模型对应不同配置)‌

进入 DeepSeek 的官网 https://www.deepseek.com/,点激 DeepSeek R1 的模型连接,可以进入 GitHub 的源代码页面。里面可看到 DeepSeek R1 包含了多个不同大小的模型,每个模型需要使用的资源不一样。一般情况下建议使用 1.5B 的轻量级模型,GPU 在 6G~8G 可以尝试使用 7B 的平衡型模型。

基于大模型的 RAG 核心开发——详细介绍 DeepSeek R1 本地化部署流程

显卡要求可参考下表

基于大模型的 RAG 核心开发——详细介绍 DeepSeek R1 本地化部署流程

 

‌2. 依赖工具‌

  • Ollama 或 HFD 部署工具及模型库
  • Docker、Python等基础环境‌

常用下载模型的方法主要有两种,一是通过 Ollama,二是通过 HuggingFace。虽然 HuggingFace 的镜像比较丰富全面,但由于在2023年底,HuggingFace 的官网已经彻底被封,想要下载镜像需要使用 https://hf-mirror.com 里面的 HFD 工具通过命令执行,对新手来说相对不太友好,所以本文就选择相对轻量级的 Ollama 工具进行安装。

 

二、安装步骤

1. 安装 Ollama 

首先到 Ollama 官网 https://www.ollama.com 下载 ollama,可以选择 Windows、Linux、masOS 三个不同的版本

基于大模型的 RAG 核心开发——详细介绍 DeepSeek R1 本地化部署流程

 下载后点激安装,默认安装路径在 C:UsersusernameAppDataLocalProgramsOllama 下

基于大模型的 RAG 核心开发——详细介绍 DeepSeek R1 本地化部署流程

安装完成后,打开 Windows 的环境变量,修改用户变量中的 Path 值,加入 Ollama 的路径  C:UsersusernameAppDataLocalProgramsOllama

基于大模型的 RAG 核心开发——详细介绍 DeepSeek R1 本地化部署流程

完成设置后,点激 Ollama.exe 按钮,然后在命令提示符中输入 ollama -v,见到 ollama 版本号代表安装成功。

基于大模型的 RAG 核心开发——详细介绍 DeepSeek R1 本地化部署流程

也打开浏览器,输入Ollama 运行地址 “http://127.0.0.1:11434”
看到 “Ollama is running”  字样证明 Ollama 已经正常运行。

基于大模型的 RAG 核心开发——详细介绍 DeepSeek R1 本地化部署流程

 

2. 下载 deepseek v1 模型

ollama 的命令与 docker 有点类似,输入命令 ollama pull deepseek-r1:7b 系统开始下载模型 deepseek v1:7b
最后看到 success 代表下载成功

基于大模型的 RAG 核心开发——详细介绍 DeepSeek R1 本地化部署流程

 此时输入命令 ollama ls 可以查看已下载的模型

基于大模型的 RAG 核心开发——详细介绍 DeepSeek R1 本地化部署流程

 

3. 运行模型

输入命令 “ollama run deepseek-r1:7b” 启动模型
成功启动后就可以尝试输入问题让 deepseek 回答。

基于大模型的 RAG 核心开发——详细介绍 DeepSeek R1 本地化部署流程

 按下 CTRL+D  可以退出当前对话
若要查看当前运行的模型,可以输入 ollama ps

基于大模型的 RAG 核心开发——详细介绍 DeepSeek R1 本地化部署流程

若要停止模式运行,可输入 ollama stop deepseek-r1:7b。
停止后再输入 ollama ps,可以知道停止命令是否成功

基于大模型的 RAG 核心开发——详细介绍 DeepSeek R1 本地化部署流程

 

三、可视化部署

DeepSeek R1 不仅可以通过命令执行,还可通过插件进行可视化部署,布置出与官网应用类似的应用场景。
首先选择浏览器的扩展按键,填入 Page Assist 进行搜索,安装插件。

基于大模型的 RAG 核心开发——详细介绍 DeepSeek R1 本地化部署流程

 完成安装后,若要选择中文版可点激右上角设置按钮,在language中选择 “简体中文”

基于大模型的 RAG 核心开发——详细介绍 DeepSeek R1 本地化部署流程

在命令提示符输入 ollama run deepseek-r1:7b ,确定 deepseek 模型已经正常运行后, 在 Ollama URL 处填入默认的运行地址  http://127.0.0.1:11434

基于大模型的 RAG 核心开发——详细介绍 DeepSeek R1 本地化部署流程

回到首页,在选项中可以查到系统中正在运行的模型,选择你要有的模型类别

基于大模型的 RAG 核心开发——详细介绍 DeepSeek R1 本地化部署流程

 此时,你已经可以在本机尽情享受 DeepSeek 给你带来的乐趣。

基于大模型的 RAG 核心开发——详细介绍 DeepSeek R1 本地化部署流程

 

本章小结

前面已经介绍了 DeepSeek R1 本地化部署流程,本地化部署不仅能保障数据安全,更能通过灵活定制实现业务场景的高效适配,为企业智能化转型提供可靠的技术底座。DeepSeek 模型从环境准备、模型加载到 RAG 功能集成,每一个环节都体现了大模型与企业私有化场景深度融合的技术潜力。接下来一连几章将会为大家介绍基于大模型 RAG 的核心开发,敬请留意。

 

作者:风尘浪子
原创作品,转载时请注明作者及出处

发表评论

评论已关闭。

相关文章