使用Ollama部署DeepSeek-R1指南

使用Ollama部署DeepSeek-R1指南
RayDeepSeek R1部署指南
前言
今天在使用DeepSeek的时候发现官网慢的要死,就寻思着在自己电脑上搭建一个,既保护隐私,又可以随时使用,不用考虑官网时不时抽风的问题
正文
准备
1.硬件基础
- Windows/macOS/Linux系统
- 内存 ≥ 8GB
- 显存 ≥ 4GB
模型版本 | 显存需求 | 内存需求 | 推荐显卡 | 适用场景 |
---|---|---|---|---|
DeepSeek 1.5B | ≥ 4GB(GPU) | ≥ 8GB | NVIDIA GTX 1050 Ti / 集成显卡 | 轻量级对话、文本生成 |
DeepSeek 7B | ≥ 8GB(GPU) | ≥ 16GB | NVIDIA RTX 3060 / 2060 | 中等复杂度任务、代码生成 |
DeepSeek 14B | ≥ 16GB(GPU) | ≥ 32GB | NVIDIA RTX 4090 / 3090 | 复杂推理、长文本生成 |
DeepSeek 67B | ≥ 24GB(GPU) | ≥ 64GB | 多卡并行(如A100/A800) | 企业级应用、高并发服务 |
2.软件基础
一、安装Ollama
1.下载Ollama
访问Ollama官网,根据操作系统选择对应版本安装:
Windows/macOS:直接下载安装包,默认安装即可。
Linux(Ubuntu/Debian):
1 | curl -fsSL https://ollama.com/install.sh | sudo bash |
验证安装成功:输入ollama -v
查看版本信息
2.更改安装路径(可选)
若需避免占用C盘空间,可通过环境变量调整模型存储路径:
- 方法一
新建系统变量
OLLAMA_MODELS
,值为目标路径(如D:\models
)。将原安装路径下的
models
文件夹剪切到新路径。
- 方法二(推荐)
之所以推荐使用命令安装,是因为通过命令安装可以修改默认的安装目录位置,而通过鼠标双击安装,默认会安装到C盘。
通常情况下,我们不希望安装到C盘,此时我们就可以通过使用命令的方式将Ollama安装到其他盘的某个目录下。
以管理员身份运行CMD,并定位到
OllamaSetup.exe
所在的目录(假设OllamaSetup.exe
在D:\Temp
目录下),然后执行如下命令:./OllamaSetup.exe /DIR="D:\Net_Program\Net_Ollama"
上述命令中DIR的值为
D:\Net_Program\Net_Ollama
,该值就是安装的目录位置。
二、部署DeepSeek模型
1.选择模型版本
根据硬件配置选择合适版本(参数越大,性能需求越高):
1.5B:需1.1GB空间,适合轻量级任务。
7B:需4.7GB空间,推荐平衡性能与效果。
14B及以上:需更高显存(如14B需9GB),适合专业场景。
2.下载并运行模型
在终端(win+r输入cmd)执行命令(以14B为例):
1 | ollama run deepseek-r1:14b |
下载完成后,终端进入交互模式,可直接输入问题测试模型。
查看已安装模型:
ollama list
。
3.Ollama 配置允许外网访问(可选)
Ollama在linux环境中如何支持外部或者宿主机通过IP访问其接口
首先停止ollama服务:
systemctl stop ollama
修改ollama的service文件:/etc/systemd/system/ollama.service
在[Service]下边增加两行:1
2Environment="OLLAMA_HOST=0.0.0.0"
Environment="OLLAMA_ORIGINS=*"限制端口就加上端口
1
2Environment="OLLAMA_HOST=0.0.0.0:11434"
Environment="OLLAMA_ORIGINS=*"端口根据实际情况修改
重载daemon文件
systemctl daemon-reload
启动ollama服务
systemctl start ollama
Ollama在windows环境中如何支持通过IP来访问接口
- 首先停止ollama服务的允许。由于windows下安装的ollama不是一个标准的windows service,所以只能直接杀掉两个ollama进程。
- 为当前windows系统添加环境变量:电脑-属性-高级系统设置-环境变量
变量:OLLAMA_HOST
,值:0.0.0.0:11434
变量:OLLAMA_ORIGINS
,值:*
- 关掉已打开的命令行窗口,打开新命令行,用ollama serve或者ollama start来启动ollama服务,此时ollama服务在启动时将读取环境变量中的OLLAMA_HOST,支持IP端口访问
三、配置可视化交互界面(可选)
1.Chatbox
- 下载[Chatbox](Chatbox AI官网:办公学习的AI好助手,全平台AI客户端,官方免费下载)客户端,安装后进入设置:
- 选择模型提供商为 Ollama API。
- 配置API地址为http://localhost:11434
2.Open WebUI(Docker部署)
安装Docker后执行命令:
1
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
访问
http://localhost:3000
即可通过浏览器交互。