使用Ollama部署DeepSeek-R1指南

DeepSeek R1部署指南

前言

今天在使用DeepSeek的时候发现官网慢的要死,就寻思着在自己电脑上搭建一个,既保护隐私,又可以随时使用,不用考虑官网时不时抽风的问题

正文

准备

1.硬件基础

  • Windows/macOS/Linux系统
  • 内存 ≥ 8GB
  • 显存 ≥ 4GB
模型版本 显存需求 内存需求 推荐显卡 适用场景
DeepSeek 1.5B ≥ 4GB(GPU) ≥ 8GB NVIDIA GTX 1050 Ti / 集成显卡 轻量级对话、文本生成
DeepSeek 7B ≥ 8GB(GPU) ≥ 16GB NVIDIA RTX 3060 / 2060 中等复杂度任务、代码生成
DeepSeek 14B ≥ 16GB(GPU) ≥ 32GB NVIDIA RTX 4090 / 3090 复杂推理、长文本生成
DeepSeek 67B ≥ 24GB(GPU) ≥ 64GB 多卡并行(如A100/A800) 企业级应用、高并发服务

2.软件基础

一、安装Ollama

1.下载Ollama

访问Ollama官网,根据操作系统选择对应版本安装:

  • Windows/macOS:直接下载安装包,默认安装即可。

  • Linux(Ubuntu/Debian):

1
2
3
curl -fsSL https://ollama.com/install.sh | sudo bash
sudo usermod -aG ollama $USER # 添加用户权限
sudo systemctl start ollama # 启动服务

验证安装成功:输入ollama -v查看版本信息

2.更改安装路径(可选)

若需避免占用C盘空间,可通过环境变量调整模型存储路径:

  1. 方法一
  • 新建系统变量 OLLAMA_MODELS,值为目标路径(如D:\models)。

  • 将原安装路径下的models文件夹剪切到新路径。

  1. 方法二(推荐)

之所以推荐使用命令安装,是因为通过命令安装可以修改默认的安装目录位置,而通过鼠标双击安装,默认会安装到C盘。

通常情况下,我们不希望安装到C盘,此时我们就可以通过使用命令的方式将Ollama安装到其他盘的某个目录下。

  • 以管理员身份运行CMD,并定位到OllamaSetup.exe所在的目录(假设OllamaSetup.exeD:\Temp目录下),然后执行如下命令:

    ./OllamaSetup.exe /DIR="D:\Net_Program\Net_Ollama"

    上述命令中DIR的值为D:\Net_Program\Net_Ollama,该值就是安装的目录位置。

二、部署DeepSeek模型

1.选择模型版本

根据硬件配置选择合适版本(参数越大,性能需求越高):

  • 1.5B:需1.1GB空间,适合轻量级任务。

  • 7B:需4.7GB空间,推荐平衡性能与效果。

  • 14B及以上:需更高显存(如14B需9GB),适合专业场景。

2.下载并运行模型

在终端(win+r输入cmd)执行命令(以14B为例):

1
ollama run deepseek-r1:14b
  • 下载完成后,终端进入交互模式,可直接输入问题测试模型。

  • 查看已安装模型:ollama list

3.Ollama 配置允许外网访问(可选)

Ollama在linux环境中如何支持外部或者宿主机通过IP访问其接口
  1. 首先停止ollama服务:systemctl stop ollama

  2. 修改ollama的service文件:/etc/systemd/system/ollama.service
    在[Service]下边增加两行:

    1
    2
    Environment="OLLAMA_HOST=0.0.0.0"
    Environment="OLLAMA_ORIGINS=*"

    限制端口就加上端口

    1
    2
    Environment="OLLAMA_HOST=0.0.0.0:11434" 
    Environment="OLLAMA_ORIGINS=*"

    端口根据实际情况修改

  3. 重载daemon文件 systemctl daemon-reload

  4. 启动ollama服务 systemctl start ollama

Ollama在windows环境中如何支持通过IP来访问接口
  1. 首先停止ollama服务的允许。由于windows下安装的ollama不是一个标准的windows service,所以只能直接杀掉两个ollama进程。
  2. 为当前windows系统添加环境变量:电脑-属性-高级系统设置-环境变量
    变量:OLLAMA_HOST,值:0.0.0.0:11434
    变量:OLLAMA_ORIGINS,值:*
  3. 关掉已打开的命令行窗口,打开新命令行,用ollama serve或者ollama start来启动ollama服务,此时ollama服务在启动时将读取环境变量中的OLLAMA_HOST,支持IP端口访问

三、配置可视化交互界面(可选)

1.Chatbox

2.Open WebUI(Docker部署)

  • 安装Docker后执行命令:

    1
    docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
  • 访问http://localhost:3000即可通过浏览器交互。