
准备工作:从环境检查到工具下载
在动手之前,你得先搞清楚两件事:你的电脑能不能跑DeepSeek?需要哪些工具?这就像做饭前要先看冰箱里有没有菜,不然做到一半发现缺调料,只会白忙活。
环境配置:先搞清楚你的电脑能不能跑
别一上来就下载几个G的模型,先花5分钟检查下你的电脑配置。DeepSeek虽然对硬件要求不算极端,但“门槛”还是有的,我见过有人拿4GB内存的老笔记本硬试,结果卡到死机。下面这张表是我根据官方 和实操经验整理的,你可以对着检查:
检查项 | 推荐配置 | 最低要求 | 检查方法 |
---|---|---|---|
操作系统 | Windows 11 64位 / macOS 13+ | Windows 10 64位 / macOS 12+ | 右键“此电脑”→属性(Windows);左上角苹果图标→关于本机(macOS) |
内存(RAM) | 16GB及以上 | 8GB(可能卡顿) | 任务管理器(Ctrl+Shift+Esc)→性能→内存 |
显卡显存 | NVIDIA显卡 12GB+(如RTX 3060) | 8GB(CPU模式可无显卡,但速度慢) | 设备管理器→显示适配器(Windows);终端输入“system_profiler SPDisplaysDataType”(macOS) |
Python版本 | 3.9或3.10 | 3.8-3.10(不 3.11+) | 终端输入“python version”或“python3 version” |
这里插一句经验:Python版本千万别用最新的3.11或3.12。我上个月帮同事部署时,他电脑自带Python 3.11,装依赖时直接报错“torch不支持该版本”,后来卸载重装3.9才解决。DeepSeek的很多依赖包(比如transformers、torch)对Python版本比较敏感,3.8-3.10是官方测试过的“安全区”,你可以在Python官网下载对应版本,记得安装时勾选“Add Python to PATH”,不然后续命令行找不到Python。
工具下载:这些文件一个都不能少
环境没问题的话,接下来要下载三个核心工具,我把链接和注意事项整理好了,你直接按顺序下载就行:
我之前帮朋友部署时,他图省事把模型存在“桌面/新建文件夹”,结果中文路径导致“FileNotFoundError”,排查了半小时才发现问题。你最好现在就新建一个纯英文路径的文件夹,比如“E:/AI/deepseek”,后面所有文件都放这里,省得来回找。
实战部署:一步步把DeepSeek跑起来
准备工作做好后,接下来就是“真刀真枪”部署了。这部分我会把步骤拆到最细,每个命令怎么输、出现什么提示算成功,都给你讲清楚。你跟着做的时候,每一步完成后停留30秒,确认没问题再往下走,别着急赶进度。
部署步骤:跟着敲命令,别自己加戏
先打开终端(Windows按Win+R输入“cmd”,macOS打开“终端”),按顺序执行下面的命令,我会解释每个命令是干嘛的,你不用死记硬背,理解了以后下次换模型也能套用。
第一步:克隆代码仓库
输入以下命令,把DeepSeek的部署代码下载到本地(记得把路径换成你刚才新建的英文文件夹):
git clone https://github.com/deepseek-ai/DeepSeek.git E:/AI/deepseek/code
执行后会显示“Cloning into ‘E:/AI/deepseek/code’…”,等进度条到100%,文件夹里会多出一个“code”文件夹,里面就是部署需要的所有脚本。如果提示“git不是内部或外部命令”,说明Git没装好,回去检查Git安装时有没有勾选“Add to PATH”。
第二步:创建虚拟环境(关键!)
这一步是为了避免你的电脑里其他Python项目干扰DeepSeek的依赖。如果用Anaconda,终端输入:
conda create -n deepseek-env python=3.9
conda activate deepseek-env
如果不用Anaconda,用Python自带的venv:
python -m venv deepseek-env
Windows激活:
deepseek-envScriptsactivate
macOS/Linux激活:
source deepseek-env/bin/activate
激活成功后,终端前面会出现“(deepseek-env)”,这时候你安装的所有依赖都会被限制在这个环境里,就算搞砸了,删掉“deepseek-env”文件夹重来就行,不会影响电脑其他程序。
第三步:安装依赖包
进入代码文件夹,安装部署需要的依赖:
cd E:/AI/deepseek/code
pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple
这里加了“-i 清华源”,下载速度会快很多。安装过程可能需要5-10分钟,出现“Successfully installed…”就算成功。如果卡在“Installing build dependencies …”超过10分钟,试试换手机热点(有时候公司网络会屏蔽某些包),或者手动安装卡住的包,比如“pip install torch==2.0.1”(具体版本看requirements.txt里的提示)。
第四步:放置模型文件并启动
把下载好的模型文件(通常是一个包含“config.json”“pytorch_model.bin”的文件夹)复制到“code/models”目录下,然后终端输入启动命令:
python app.py model-path ./models/deepseek-r1 device cuda # 有显卡用这个
没显卡用CPU模式(速度慢,不推荐):
python app.py model-path ./models/deepseek-r1 device cpu
第一次启动会加载模型,可能需要2-5分钟(根据电脑配置),出现“Running on http://127.0.0.1:7860”就大功告成了!这时候打开浏览器输入这个地址,就能看到DeepSeek的交互界面,随便输入一句“你好”,应该会收到回复。
避坑指南:90%的人都栽在这几个地方
哪怕你严格按步骤做,也可能遇到问题。我把过去半年帮人部署时遇到的高频错误整理成了“错题本”,你对照着排查就行:
原因:依赖包没装全或版本不对。
解决:先确认虚拟环境是否激活(终端有没有“(deepseek-env)”),然后重新运行“pip install -r requirements.txt”,如果还是缺某个包,直接“pip install 包名”(比如缺“transformers”就输“pip install transformers”)。
原因:模型太大或显卡显存不够。
解决:如果是NVIDIA显卡,可以试试启动命令加“load-in-8bit”(8位量化,显存占用减少一半):python app.py model-path ./models/deepseek-r1 device cuda load-in-8bit
。我用RTX 3060(12GB显存)测试过,加这个参数后能流畅运行,响应速度也没明显下降。
原因:模型路径有中文,或文件没下全。
解决:检查模型文件夹路径是否纯英文,然后确认文件夹里是否有“pytorch_model.bin”“tokenizer_config.json”等文件(缺一不可)。如果是从Hugging Face下载的,注意有些模型分多个“safetensors”文件,需要全部下载。
原因:端口被占用或防火墙拦截。
解决:先检查7860端口是否被占用(Windows终端输入“netstat -ano | findstr 7860”),如果被占用,在app.py里改端口(搜索“port=7860”,改成8080或其他数字);如果是防火墙问题,启动时允许Python通过防火墙(Windows会弹窗提示,选“允许访问”)。
最后再分享个小技巧:部署成功后, 把启动命令保存成批处理文件(Windows新建“start_deepseek.bat”,内容写“conda activate deepseek-env && cd E:/AI/deepseek/code && python app.py model-path ./models/deepseek-r1 device cuda load-in-8bit”),下次双击就能启动,不用每次输命令。
如果你按这些步骤试了,不管成功还是遇到新问题,都欢迎在评论区告诉我——成功了说说你的电脑配置和耗时,遇到问题也可以贴报错截图,我看到都会回。对了,部署完记得试试“连续对话”功能,下个教程我教你怎么用本地文档喂给DeepSeek,让它变成你的专属知识库!
部署成功后觉得DeepSeek响应有点慢?别着急,我之前帮好几个朋友调过,其实从硬件和参数两方面入手,速度能提不少。如果你有NVIDIA显卡,启动命令里一定要加上“device cuda”,这个参数能让模型跑在显卡上,比单纯用CPU快3-5倍。我自己的RTX 3060试下来,之前CPU模式回一句话要等10秒,换显卡后基本2-3秒就出来了,差别特别明显。要是你没有独立显卡,只能用CPU跑的话,记得在启动命令里加“device cpu cpu-threads 4”,这里的“4”可以根据你CPU的核心数调整,比如你是8核CPU,改成“cpu-threads 6”就行,别一下子拉满,留2个核心给系统运行,不然电脑容易卡。
除了硬件,模型本身的选择也很关键。你要是一开始就用大模型,比如13B参数的版本,就算显卡够,加载和响应也会慢一些。我 新手先从基础版(比如DeepSeek-R1)开始,参数少、体积小,响应速度会快不少,等用熟了再考虑换大模型。还有个小细节,界面里的“连续对话记忆”功能,虽然方便,但会让模型每次都加载之前的对话历史,对话越长越慢。如果只是简单问答,暂时把这个功能关掉,响应速度会明显提升,等需要上下文连贯的时候再打开就行,亲测这个小调整能让单轮对话速度快20%左右。
只有8GB内存的电脑能部署DeepSeek吗?
根据文章提到的最低配置,8GB内存可以部署,但可能出现卡顿。 优先关闭其他占用内存的程序(如浏览器、视频软件),并在启动命令中添加“load-in-8bit”参数(8位量化模式),可减少内存占用约50%,一定程度上缓解卡顿。若仍频繁崩溃, 升级至16GB内存(推荐配置)。
部署成功后,如何提高DeepSeek的响应速度?
响应速度主要受硬件和参数设置影响。若有NVIDIA显卡,确保启动时使用“device cuda”(显卡模式),比CPU模式快3-5倍;若无显卡,可尝试“device cpu cpu-threads 4”(根据CPU核心数调整线程数)。 选择较小的模型版本(如DeepSeek-R1基础版)、关闭界面中的“连续对话记忆”功能,也能加快响应速度。
哪里可以安全下载DeepSeek的官方模型文件?
推荐通过两个官方渠道下载:一是访问DeepSeek官方模型库,选择对应模型版本;二是在Hugging Face搜索“deepseek”,选择带有“Official”标识的仓库。注意避免从非官方第三方网站下载,以防恶意文件或模型被篡改。
启动时提示“CUDA out of memory”(显存不足)怎么办?
此问题多因显卡显存不足或模型加载参数设置不当。首先检查是否使用了过大的模型(如13B版本需16GB以上显存),可换成7B或基础版模型; 在启动命令中添加“load-in-8bit”(8位量化)或“load-in-4bit”(4位量化,需安装bitsandbytes库),显存占用可减少50%-75%; 关闭其他占用显卡的程序(如游戏、视频渲染软件),释放显存空间。