什么是DeepSeek-R1
DeepSeek-R1 是由深度求索(DeepSeek)公司开发的一款高性能开源大语言模型,专注于自然语言理解与生成任务。它基于先进的深度学习架构(如 Transformer)训练而成,适用于对话、问答、文本生成、代码生成等多种场景。不仅提供了中英文双语,更是提供了模型权重和训练代码,允许开发者根据需求微调模型,优化后的架构更适合本地部署和实时交互。其次模型规模参数量更是从7B(70亿)到 34B不等,支持的应用场景包含了智能客服,内容创作,代码训练等多方面
什么是Ollama
Ollama 是一个轻量化的开源工具,专为在本地计算机(如 Windows、macOS、Linux)上快速部署和运行大型语言模型(LLM)而设计。它简化了模型的下载、加载和交互流程,支持多种开源模型(如 Llama 3、DeepSeek、Mistral 等)
首先我们需要下载Ollama根据需要选择下载的端,我这边选择的是本地部署的win
百度网盘下载地址:https://pan.baidu.com/s/1QaXZPRQ7VwPxGN-Q_SuoSg 提取码: 89ph
安装界面
检查ollama安装是否完成
打开搜索栏 输入cmd 打开命令界面并输入命令ollama -v 显示版本号即可
ollama下载deepseek-r1根据自己的运行环境选择下载的命令
命令 | 数据量 | 应用场景 | Linux 推荐配置 | Windows 推荐配置 |
ollama run deepseek-r1:1.5b | 1.1g | 个人本地测试 | CPU: 4核+ (x86_64) 内存: 8GB+ 显卡: 集成显卡/无GPU | CPU:i5/R5 4核+ 内存: 8GB+ 显卡: 无要求 |
ollama run deepseek-r1:7b | 4.7g | 本地开发/小型服务 | CPU: 8核+ 内存: 32GB+ 显卡: RTX 3060 (12GB) 或 A10 (24GB) | CPU: i7/R7 8核+ 内存: 32GB+ 显卡: RTX 3060(需WSL2+CUDA) |
ollama run deepseek-r1:8b | 4.9g | 本地开发/小型服务 | CPU: 8核+ 内存: 32GB+ 显卡: RTX 3060 (12GB) 或 A10 (24GB) | CPU: i7/R7 8核+ 内存: 32GB+ 显卡: RTX 3060(需WSL2+CUDA) |
ollama run deepseek-r1:14b | 9.0g | 中型企业服务 | CPU: 16核+ 内存: 64GB+ 显卡: A100 40GB *1 或 RTX 4090 (24GB) | 仅限开发测试 需WSL2 + RTX 3090/4090 |
ollama run deepseek-r1:32b | 20g | 高性能推理 | CPU: 32核+ 内存: 128GB+ 显卡: A100 80GB *2(NVLink互联) | 不推荐Windows部署 |
ollama run deepseek-r1:613b | 404g | 超大规模集群 | 仅限Linux集群部署 |
命令 | 说明 |
ollama --version | 查看Ollama版本 |
ollama serve | 启动Ollama服务(默认后台运行,手动启动用于调试) |
ollama list | 列出已安装的模型 |
ollama run <模型名称> | 运行指定模型(如 ollama run deepseek-r1:7b ) |
ollama pull <模型名称> | 仅下载模型不运行(如 ollama pull llama2:13b ) |
ollama rm <模型名称> | 删除已安装模型(如 ollama rm deepseek-r1:1.5b ) |
ollama ps | 查看正在运行的模型进程 |
ollama help | 查看所有支持的命令 |
powershell
复制
# 启动模型并进入交互模式(输入文本后按回车生成回复) ollama run deepseek-r1:7b # 运行单次提问(非交互模式) ollama run deepseek-r1:7b "用一句话解释人工智能"
# 新开PowerShell窗口运行不同模型 ollama run llama2:13b ollama run deepseek-r1:14b
ollama show <模型名称> --modelfile # 查看模型配置 ollama info # 查看系统资源占用
创建 Modelfile
文件(如 my-model.txt
):
FROM deepseek-r1:7b PARAMETER temperature 0.7 PARAMETER num_ctx 4096
构建自定义模型:
ollama create my-model -f .\my-model.txt ollama run my-model
默认路径为 C:\Users<用户名>.ollama
,若需更改:
右键点击Ollama系统托盘图标 → 退出Ollama。
以管理员身份运行命令提示符:
setx OLLAMA_MODELS "D:\ollama-models"
重启Ollama服务。
Ollama默认优先使用GPU(需NVIDIA显卡):
确保安装最新NVIDIA驱动和CUDA Toolkit。
验证GPU支持: ollama serve # 查看启动日志中是否识别到CUDA设备
当然还有更方便的是方式 win路径 C:\Users\Administrator.ollama 生成config.json ``
{ "port": 11434, "host": "0.0.0.0", "model_dir": "D:/ollama_models", "log_level": "info", "max_concurrent_downloads": 3, "cache_size": "10GB" }
后续在体验中将会持续优化文档内容 目前在win优化这块还没有完全弄明白