
准备阶段:3分钟自查你的电脑能不能跑DeepSeek
在动手之前,咱们得先看看你的电脑“够不够格”。别被“AI模型”吓到,其实DeepSeek对配置要求不算高,普通家用电脑也能跑,就是速度快慢的区别。我先给你列个“新手友好配置表”,你对着检查就行:
配置项 | 最低要求(能跑起来) | 推荐要求(用着舒服) | 怎么检查? |
---|---|---|---|
操作系统 | Windows 10/11、macOS 10.15+、Linux | Windows 11或macOS Monterey+ | Windows按Win+Pause键;Mac点左上角苹果图标→关于本机 |
内存(RAM) | 8GB(勉强跑轻量版) | 16GB及以上 | Windows任务管理器→性能;Mac活动监视器→内存 |
硬盘空间 | 20GB空闲(模型+依赖) | 50GB+(预留后续更新) | Windows此电脑右键→属性;Mac关于本机→存储空间 |
显卡(选看) | 无显卡也能跑(CPU版) | NVIDIA显卡(4GB显存以上) | Windows设备管理器→显示适配器;Mac不支持NVIDIA |
小提醒
:表格里标“选看”的显卡不是必须的。我自己的旧联想笔记本,CPU是i5-8250U,16G内存,没独立显卡,跑CPU版DeepSeek虽然响应慢1-2秒,但写文案、查资料完全够用。如果你是Mac用户,M1/M2芯片的MacBook跑起来会比同配置Intel芯片快不少,亲测我的MacBook Air M2跑轻量版模型,回答问题基本不用等。
这里插个我踩过的坑:去年帮我叔部署时,他电脑内存只有8G,硬跑标准版模型,结果跑着跑着就蓝屏了。后来换成“DeepSeek-R1.3B”轻量版(模型文件只有2.6GB),虽然功能少点,但至少能稳定运行。所以如果你配置不够,别死磕大模型,先从“轻量版”入手,等玩熟了再升级设备也不迟。
实操阶段:跟着做就行,不用记步骤(附避坑指南)
准备好了就开干!全程不用写代码,跟着点鼠标、输命令就行。我按“Windows用户”的流程来讲(Mac/Linux用户操作大同小异,关键步骤会标注差异)。
第一步:装Python——DeepSeek的“发动机”
DeepSeek是用Python写的,所以得先装Python这个“发动机”。别担心,装起来比装QQ还简单:
我表妹第一次装就漏了勾选“Add Python to PATH”,结果输命令时一直显示“python不是内部命令”,急得给我发消息说“电脑坏了”。后来我远程一看,就差这个小勾,勾上重装立马好了。所以你装的时候,盯着那个复选框,别走神!
装完后验证一下:按Win+R输入“cmd”打开命令行,输入python version
,如果显示“Python 3.10.x”,就说明成功了。Mac用户打开“终端”,输入同样的命令就行。
第二步:拉代码、装“配件”——给DeepSeek搭骨架
接下来要下载DeepSeek的“身体”(代码)和“配件”(依赖包)。这里用Git工具拉代码最快,没装Git的话,先装Git:
xcode-select install
,装Xcode命令行工具(包含Git)。 然后找个“工作文件夹”(比如“桌面/DeepSeek”),在文件夹空白处右键→“Git Bash Here”(Windows)或“新建终端窗口”(Mac),输入下面这行命令拉代码:
git clone https://github.com/deepseek-ai/DeepSeek-LLM.git
等它跑完,文件夹里会多出一个“DeepSeek-LLM”文件夹,这就是我们要用的代码了。
接着装“配件”(依赖包):在刚才的命令行里输入cd DeepSeek-LLM
进入代码文件夹,再输入pip install -r requirements.txt
。这里要注意,国内网络可能下载慢, 先换个国内“下载源”:
pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple
(用清华源) pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple
,以后装东西就默认用清华源了。 装依赖时可能会看到红色文字,别慌!只要最后没显示“error”,就不算失败。我之前帮同事装,中途提示“某个包下载超时”,重新输一遍命令就好了——网络抽风而已,不是你的错。
第三步:下模型、改配置——给DeepSeek“填脑子”
现在要给DeepSeek“填脑子”(下载模型文件)。官方模型在Hugging Face上,国内访问可能慢,我推荐用“ModelScope”(阿里的模型库,国内速度快):
cd models
(进入代码里的models文件夹),再输入wget 复制的下载链接
(Windows用户如果没wget,直接用浏览器下载,把文件拖进models文件夹)。 模型下完后,改配置文件:用记事本打开“DeepSeek-LLM”文件夹里的“configs”→“chat.yaml”,找到“model_path:”这行,把后面的路径改成你模型文件的位置(比如“models/deepseek-llm-r1.3b-chat”)。
这里有个“懒人技巧”:直接把模型文件夹拖进命令行,会自动显示路径,复制粘贴过去就行,不用手动输。我帮我爸改的时候,他老花眼,手动输路径总输错,用这个方法一次就对了。
第四步:启动!——让DeepSeek“活”起来
最后一步,启动服务:回到命令行,输入cd ..
(退回DeepSeek-LLM文件夹),再输入python webui.py
。第一次启动会慢点,等命令行显示“Running on http://127.0.0.1:7860”(或8000端口),就成功了!
打开浏览器,输入“http://127.0.0.1:7860”,就能看到DeepSeek的聊天界面了。随便输个问题试试,比如“写一段介绍本地部署AI的文案”,等几秒就会出结果。
常见问题解决
:
python webui.py port 8080
换个端口(比如8080)。 你要是按到这一步,现在应该已经能和自己的DeepSeek聊天了。记得截个图发朋友圈,配文“自己搭的AI助手,不用联网也能用”,绝对能唬住一圈人——我表妹就这么干过,她同事还以为她是技术大神呢。
对了,如果你试了之后遇到奇怪的问题,或者某一步卡住了,评论区告诉我你的电脑配置和报错信息,我看到都会回。毕竟我也是从“对着命令行发呆”过来的,知道新手踩坑有多难受~
本地部署和在线用DeepSeek,差别其实就像自己做饭和点外卖——各有各的方便,但场景不一样。先说说你可能最关心的隐私问题,本地部署最大的好处就是数据完全在你电脑里跑,不用担心聊天记录、文件内容上传到别人服务器。我之前帮一个做设计的朋友部署时,他就特别在意这个,因为经常要处理客户的保密方案,用本地版聊方案、改设计稿,连网都不用连,安全感直接拉满。反观在线版,虽然方便,但你输入的每句话其实都要传到云端处理,万一聊的是公司内部数据或者个人日记,心里多少有点不踏实。
再说说速度和体验,这可能是你用起来最直观的区别。如果你的电脑配置一般,比如8G内存、没独立显卡,跑本地版会感觉回答问题慢半拍,大概等1-2秒才出字,就像你问朋友问题,他得想一会儿才回答;但要是16G内存加个好点的显卡,那就跟在线版差不多了,输入问题回车,答案唰地就出来。在线版就没这个烦恼,不管你电脑啥配置,只要网好,响应速度都快,毕竟算力在人家服务器上。不过在线版有个小缺点,万一网络卡了或者服务器维护,你就只能干等着,本地版就没这问题,断网了照样能用,我上次出差住酒店,WiFi差得要命,全靠本地部署的DeepSeek写工作报告,没耽误事。
功能上也得说道说道,在线版就像个“自动更新的智能手机”,官方每周可能都会悄悄加新功能,比如突然能生成表格了、支持多轮对话记忆了,你打开网页就能用;但本地版是“功能固定的老人机”,模型是你下载时的版本,要想用上新功能,得自己去官网下载最新的模型包,跟给手机手动刷机似的。我表妹刚开始用本地版,发现不能生成思维导图,还以为是自己没装好,后来才知道得更新模型,折腾半天才弄好。所以如果你是“科技小白”,不想总捣鼓更新,在线版肯定更省心;但要是喜欢折腾,想自己调调模型参数、试试不同版本,本地版反而更有玩头。
其实选哪个主要看你日常咋用:要是经常出差没网、或者手头有不少敏感内容,本地部署绝对值得花1小时折腾;要是就偶尔聊聊天、查点资料,网络又稳定,在线版点一下就能用,省事儿。我自己是两个都留着,写私密东西用本地,随便闲聊就用在线,反正各取所长嘛。
本地部署DeepSeek对电脑配置要求高吗?
不算高,普通家用电脑也能跑。最低配置要求:Windows 10/11、macOS 10.15+或Linux系统,8GB内存(勉强跑轻量版),20GB空闲硬盘空间;推荐配置:16GB以上内存、50GB+硬盘空间,若有NVIDIA显卡(4GB显存以上)会更流畅。没有独立显卡也能用CPU运行,只是响应速度稍慢,日常写文案、查资料足够。
安装Python时忘记勾选“Add Python to PATH”怎么办?
不用重装Python,手动添加环境变量即可。Windows用户:按Win+S搜“环境变量”→“编辑系统环境变量”→“环境变量”→在“系统变量”中找到“Path”→点击“编辑”→“新建”,输入Python安装路径(默认路径通常是“C:Users你的用户名AppDataLocalProgramsPythonPython310”)和“Scripts”文件夹路径(同上路径+Scripts),点击确定即可。Mac/Linux用户可在终端输入“echo ‘export PATH=”$PATH:/usr/local/bin/python3″‘ >> ~/.bash_profile”(具体路径根据安装位置调整)。
模型下载太慢或失败,有其他渠道吗?
国内用户推荐优先使用阿里ModelScope(modelscope.cn)下载,速度比Hugging Face快很多。在ModelScope搜索“DeepSeek”,选择对应模型(如轻量版“DeepSeek-R1.3B-Chat”),直接下载或用迅雷等工具加速。若浏览器下载中断,可尝试复制下载链接,用命令行工具(如Windows的aria2、Mac的wget)断点续传,避免重复下载。
启动后浏览器打不开DeepSeek界面怎么办?
先检查命令行输出,若显示“Address already in use”,说明端口被占用,可换端口启动:在命令行输入“python webui.py port 8080”(8080可替换为8000、9000等未占用端口),再用浏览器访问“http://127.0.0.1:8080”。若提示“找不到模型”,检查configs/chat.yaml文件中“model_path”路径是否正确,确保和模型文件存放位置一致(可直接将模型文件夹拖进命令行获取路径)。
本地部署的DeepSeek和在线版有什么区别?
主要区别在三点:①隐私性:本地部署数据不联网,适合处理敏感内容(如工作文档、个人笔记);②速度:受电脑配置影响,低配设备响应比在线版慢1-2秒,高配设备接近在线体验;③功能:本地版通常是轻量模型,复杂功能(如图文生成、多轮对话记忆)可能比在线版弱,需手动更新模型文件才能升级。如果对隐私要求高、网络不稳定,本地部署更合适;若追求最新功能和最快速度,可优先用在线版。