本地电脑安装DeepSeek
在本地安装DeepSeek,可通过Ollama、Python&Hugging Face、Docker、llama.cpp四种方式,其中Ollama最为简便。下面详细介绍使用Ollama在不同系统上安装DeepSeek的步骤:
一、安装前准备
(一)系统要求
- MacOS:Intel或Apple silicon芯片均可,建议使用最新版本系统,确保系统稳定性和兼容性。
- Linux:x86_64或arm64架构,推荐Ubuntu 24.04,其他主流发行版也可尝试,但可能需要额外调整依赖。
- Windows:借助Windows Subsystem for Linux (WSL 2),Windows 10及以上版本可开启此功能,开启后近似于在Linux环境下操作 。
(二)硬件要求
- 内存:最低8GB,若想获得较好体验,建议16GB及以上,运行大型模型时,更大内存可减少卡顿。
- 存储:准备10GB以上空闲空间,用于存放模型文件,若后续需训练模型或处理大量数据,建议预留更多空间。
- GPU:非必需,但有兼容GPU(如NVIDIA的部分型号)可大幅提升推理速度,运行复杂任务时优势明显。
(三)软件要求
- 终端工具:MacOS和Linux系统自带终端;Windows系统使用WSL 2时,在“开始菜单”搜索“Ubuntu”等安装的Linux发行版启动终端,或通过PowerShell开启WSL 2环境 。
- 基础工具:安装Python 3.10及以上版本,安装时勾选“Add Python to PATH”;确保安装了pip(Python包管理工具,一般随Python安装)和Git(用于代码管理和获取资源)。
二、使用Ollama安装DeepSeek
(一)安装Ollama
MacOS系统:访问ollama.ai,点击下载MacOS应用程序;下载完成后,在“下载”文件夹找到ollama.zip文件,解压后将Ollama图标拖移至“应用程序”文件夹;打开“应用程序”中的Ollama,按照提示授予权限安装命令行工具。
Linux/Ubuntu 24.04/WSL(Windows)系统:打开终端,运行安装脚本 curl -fsSL https://ollama.com/install.sh | sh ;安装完成后,执行 ollama serve 启动Ollama服务;在终端输入 ollama --version ,若显示版本号(如ollama version 0.1.25),则安装成功。
(二)下载和安装DeepSeek - R1
检查模型是否在Ollama默认库中:在终端运行 ollama list ,查看列表中是否有deepseek - R1。若有,运行 ollama pull deepseek - R1 进行下载,下载时间取决于网络速度。
手动设置(模型不在默认库时):从Hugging Face或DeepSeek官方仓库获取gguf格式的DeepSeek - R1模型文件(如deepseek - R1.q4_k_m.gguf) ,将其保存到指定文件夹(如~/models );在同一文件夹中,创建名为modelfile的文件,内容为 from ./deepseek - R1.q4_k_m.gguf (根据实际文件名修改);在终端运行 ollama create deepseek - R1 -f modelfile 完成模型构建。
(三)运行DeepSeek - R1
在终端输入 ollama run deepseek - R1 启动与模型的对话。例如输入 >> write a Python function to calculate fibonacci numbers. ,模型会给出相应回答。
(四)验证安装(可选)
运行 ollama list ,确认列表中出现deepseek - R1。使用不同的示例提示测试模型的推理速度和回答质量,检查是否满足需求。
(五)在Web UI中运行DeepSeek
运行 ollama web 启动Ollama的Web UI,在浏览器中打开相应网址(通常为http://localhost:11434 ),就能在图形界面中与DeepSeek交互,操作更加直观方便。
若不想使用Ollama,也可通过Python&Hugging Face、Docker、llama.cpp安装DeepSeek,不过这三种方式的安装过程更复杂。比如使用Python&Hugging Face,需安装Python、Hugging Face相关库,还要下载模型;使用Docker要安装Docker引擎,编写容器配置文件;llama.cpp则侧重于在CPU上优化运行,安装时要编译代码,配置运行参数。