本地win11通过Ollama安装DeepSeek-R1

大模型   2025-08-16 10:10   117   0  

DeepSeek-R1和Ollama的了解

什么是DeepSeek-R1

DeepSeek-R1 是由深度求索(DeepSeek)公司开发的一款高性能开源大语言模型,专注于自然语言理解与生成任务。它基于先进的深度学习架构(如 Transformer)训练而成,适用于对话、问答、文本生成、代码生成等多种场景。不仅提供了中英文双语,更是提供了模型权重和训练代码,允许开发者根据需求微调模型,优化后的架构更适合本地部署和实时交互。其次模型规模参数量更是从7B(70亿)到 34B不等,支持的应用场景包含了智能客服,内容创作,代码训练等多方面

什么是Ollama

Ollama 是一个轻量化的开源工具,专为在本地计算机(如 Windows、macOS、Linux)上快速部署和运行大型语言模型(LLM)而设计。它简化了模型的下载、加载和交互流程,支持多种开源模型(如 Llama 3、DeepSeek、Mistral 等)

怎么使用Ollama搭配DeepSeek-R1

下载ollama

首先我们需要下载Ollama根据需要选择下载的端,我这边选择的是本地部署的win

image.png

百度网盘下载地址:https://pan.baidu.com/s/1QaXZPRQ7VwPxGN-Q_SuoSg 提取码: 89ph

安装ollama并检查

安装界面

image.png

检查ollama安装是否完成

打开搜索栏 输入cmd 打开命令界面并输入命令ollama -v  显示版本号即可

image.png

ollama下载deepseek-r1根据自己的运行环境选择下载的命令

运行配置推荐表


命令数据量应用场景Linux 推荐配置  Windows 推荐配置
ollama run deepseek-r1:1.5b1.1g个人本地测试CPU: 4核+ (x86_64) 内存: 8GB+ 显卡: 集成显卡/无GPUCPU:i5/R5 4核+  内存: 8GB+  显卡: 无要求
ollama run deepseek-r1:7b4.7g本地开发/小型服务CPU: 8核+  内存: 32GB+  显卡: RTX 3060 (12GB) 或 A10 (24GB)CPU: i7/R7 8核+  内存: 32GB+  显卡: RTX 3060(需WSL2+CUDA)
ollama run deepseek-r1:8b4.9g本地开发/小型服务CPU: 8核+  内存: 32GB+  显卡: RTX 3060 (12GB) 或 A10 (24GB)CPU: i7/R7 8核+  内存: 32GB+   显卡: RTX 3060(需WSL2+CUDA)
ollama run deepseek-r1:14b9.0g中型企业服务CPU: 16核+  内存: 64GB+  显卡: A100 40GB *1 或 RTX 4090 (24GB)仅限开发测试  需WSL2 + RTX 3090/4090
 ollama run deepseek-r1:32b20g高性能推理CPU: 32核+  内存: 128GB+  显卡: A100 80GB *2(NVLink互联)不推荐Windows部署
ollama run deepseek-r1:613b404g超大规模集群 仅限Linux集群部署 



ollama命令操作

1. 基础操作命令



命令 说明 
ollama --version查看Ollama版本  
ollama serve启动Ollama服务(默认后台运行,手动启动用于调试) 
ollama list列出已安装的模型
ollama run <模型名称> 运行指定模型(如 ollama run deepseek-r1:7b
ollama pull <模型名称>仅下载模型不运行(如 ollama pull llama2:13b
ollama rm <模型名称>删除已安装模型(如 ollama rm deepseek-r1:1.5b
ollama ps查看正在运行的模型进程
 ollama help查看所有支持的命令


2. 模型运行与交互

直接运行模型

powershell

复制

# 启动模型并进入交互模式(输入文本后按回车生成回复)
ollama run deepseek-r1:7b

# 运行单次提问(非交互模式)
ollama run deepseek-r1:7b "用一句话解释人工智能"

多模型并行运行

# 新开PowerShell窗口运行不同模型
ollama run llama2:13b
ollama run deepseek-r1:14b

3. 模型管理

查看模型详细信息

ollama show <模型名称> --modelfile  # 查看模型配置
ollama info                        # 查看系统资源占用

自定义模型配置

  1. 创建 Modelfile 文件(如 my-model.txt):

    FROM deepseek-r1:7b
    PARAMETER temperature 0.7
    PARAMETER num_ctx 4096
  2. 构建自定义模型:

    ollama create my-model -f .\my-model.txt
    ollama run my-model

4. Windows 优化与配置

修改模型存储路径

默认路径为 C:\Users<用户名>.ollama,若需更改:

  1. 右键点击Ollama系统托盘图标 → 退出Ollama。

  2. 以管理员身份运行命令提示符:

    setx OLLAMA_MODELS "D:\ollama-models"
  3. 重启Ollama服务。

GPU加速配置

Ollama默认优先使用GPU(需NVIDIA显卡):

  1. 确保安装最新NVIDIA驱动和CUDA Toolkit。

  2. 验证GPU支持: ollama serve  # 查看启动日志中是否识别到CUDA设备

当然还有更方便的是方式 win路径 C:\Users\Administrator.ollama 生成config.json ``

{
    "port": 11434,
    "host": "0.0.0.0",
    "model_dir": "D:/ollama_models",
    "log_level": "info",
    "max_concurrent_downloads": 3,
    "cache_size": "10GB"
  }

完成使用

image.png

后续在体验中将会持续优化文档内容 目前在win优化这块还没有完全弄明白


上一篇
下一篇
没有了
博客评论
还没有人评论,赶紧抢个沙发~
发表评论
说明:请文明发言,共建和谐网络,您的个人信息不会被公开显示。