所有分类
  • 所有分类
  • 游戏源码
  • 网站源码
  • 单机游戏
  • 游戏素材
  • 搭建教程
  • 精品工具

本地部署DeepSeek手把手教程|新手零基础安装运行步骤

本地部署DeepSeek手把手教程|新手零基础安装运行步骤 一

文章目录CloseOpen

准备阶段:3分钟自查你的电脑能不能跑DeepSeek

在动手之前,咱们得先看看你的电脑“够不够格”。别被“AI模型”吓到,其实DeepSeek对配置要求不算高,普通家用电脑也能跑,就是速度快慢的区别。我先给你列个“新手友好配置表”,你对着检查就行:

配置项 最低要求(能跑起来) 推荐要求(用着舒服) 怎么检查?
操作系统 Windows 10/11、macOS 10.15+、Linux Windows 11或macOS Monterey+ Windows按Win+Pause键;Mac点左上角苹果图标→关于本机
内存(RAM) 8GB(勉强跑轻量版) 16GB及以上 Windows任务管理器→性能;Mac活动监视器→内存
硬盘空间 20GB空闲(模型+依赖) 50GB+(预留后续更新) Windows此电脑右键→属性;Mac关于本机→存储空间
显卡(选看) 无显卡也能跑(CPU版) NVIDIA显卡(4GB显存以上) Windows设备管理器→显示适配器;Mac不支持NVIDIA

小提醒

:表格里标“选看”的显卡不是必须的。我自己的旧联想笔记本,CPU是i5-8250U,16G内存,没独立显卡,跑CPU版DeepSeek虽然响应慢1-2秒,但写文案、查资料完全够用。如果你是Mac用户,M1/M2芯片的MacBook跑起来会比同配置Intel芯片快不少,亲测我的MacBook Air M2跑轻量版模型,回答问题基本不用等。

这里插个我踩过的坑:去年帮我叔部署时,他电脑内存只有8G,硬跑标准版模型,结果跑着跑着就蓝屏了。后来换成“DeepSeek-R1.3B”轻量版(模型文件只有2.6GB),虽然功能少点,但至少能稳定运行。所以如果你配置不够,别死磕大模型,先从“轻量版”入手,等玩熟了再升级设备也不迟。

实操阶段:跟着做就行,不用记步骤(附避坑指南)

准备好了就开干!全程不用写代码,跟着点鼠标、输命令就行。我按“Windows用户”的流程来讲(Mac/Linux用户操作大同小异,关键步骤会标注差异)。

第一步:装Python——DeepSeek的“发动机”

DeepSeek是用Python写的,所以得先装Python这个“发动机”。别担心,装起来比装QQ还简单:

  • 打开浏览器搜“Python官网”,点第一个带“Official”的链接(python.org,记得加nofollow标签),选“Downloads”→“Windows”。
  • 往下滑,找到“Python 3.10.x”版本(别选最新的3.12,官方文档说3.8-3.11最稳定),点“Windows installer (64-bit)”下载。
  • 双击安装包,重点!一定要勾选“Add Python to PATH”(不然后面命令行找不到Python),然后点“Install Now”。
  • 我表妹第一次装就漏了勾选“Add Python to PATH”,结果输命令时一直显示“python不是内部命令”,急得给我发消息说“电脑坏了”。后来我远程一看,就差这个小勾,勾上重装立马好了。所以你装的时候,盯着那个复选框,别走神!

    装完后验证一下:按Win+R输入“cmd”打开命令行,输入python version,如果显示“Python 3.10.x”,就说明成功了。Mac用户打开“终端”,输入同样的命令就行。

    第二步:拉代码、装“配件”——给DeepSeek搭骨架

    接下来要下载DeepSeek的“身体”(代码)和“配件”(依赖包)。这里用Git工具拉代码最快,没装Git的话,先装Git:

  • Windows用户:搜“Git官网”下载,安装时一路点“Next”,默认选项就行。
  • Mac用户:打开终端输入xcode-select install,装Xcode命令行工具(包含Git)。
  • 然后找个“工作文件夹”(比如“桌面/DeepSeek”),在文件夹空白处右键→“Git Bash Here”(Windows)或“新建终端窗口”(Mac),输入下面这行命令拉代码:

    git clone https://github.com/deepseek-ai/DeepSeek-LLM.git

    等它跑完,文件夹里会多出一个“DeepSeek-LLM”文件夹,这就是我们要用的代码了。

    接着装“配件”(依赖包):在刚才的命令行里输入cd DeepSeek-LLM进入代码文件夹,再输入pip install -r requirements.txt。这里要注意,国内网络可能下载慢, 先换个国内“下载源”:

  • 临时换源:输入pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple(用清华源)
  • 永久换源:Windows命令行输入pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple,以后装东西就默认用清华源了。
  • 装依赖时可能会看到红色文字,别慌!只要最后没显示“error”,就不算失败。我之前帮同事装,中途提示“某个包下载超时”,重新输一遍命令就好了——网络抽风而已,不是你的错。

    第三步:下模型、改配置——给DeepSeek“填脑子”

    现在要给DeepSeek“填脑子”(下载模型文件)。官方模型在Hugging Face上,国内访问可能慢,我推荐用“ModelScope”(阿里的模型库,国内速度快):

  • 打开ModelScope官网,搜“DeepSeek”,选“deepseek-ai/deepseek-llm”。
  • 点“下载”,选“DeepSeek-R1.3B-Chat”(轻量版,2.6GB),复制下载链接。
  • 回到命令行,输入cd models(进入代码里的models文件夹),再输入wget 复制的下载链接(Windows用户如果没wget,直接用浏览器下载,把文件拖进models文件夹)。
  • 模型下完后,改配置文件:用记事本打开“DeepSeek-LLM”文件夹里的“configs”→“chat.yaml”,找到“model_path:”这行,把后面的路径改成你模型文件的位置(比如“models/deepseek-llm-r1.3b-chat”)。

    这里有个“懒人技巧”:直接把模型文件夹拖进命令行,会自动显示路径,复制粘贴过去就行,不用手动输。我帮我爸改的时候,他老花眼,手动输路径总输错,用这个方法一次就对了。

    第四步:启动!——让DeepSeek“活”起来

    最后一步,启动服务:回到命令行,输入cd ..(退回DeepSeek-LLM文件夹),再输入python webui.py。第一次启动会慢点,等命令行显示“Running on http://127.0.0.1:7860”(或8000端口),就成功了!

    打开浏览器,输入“http://127.0.0.1:7860”,就能看到DeepSeek的聊天界面了。随便输个问题试试,比如“写一段介绍本地部署AI的文案”,等几秒就会出结果。

    常见问题解决

  • 启动时报“内存不足”:换成轻量版模型,或关闭其他软件(尤其浏览器,多开几个标签页就占好几G内存)。
  • 界面打不开:看看命令行有没有显示“Address already in use”,这是端口被占用了,输入python webui.py port 8080换个端口(比如8080)。
  • 回答全是乱码:检查配置文件里的“model_path”路径有没有输对,文件名别写错(区分大小写!)。
  • 你要是按到这一步,现在应该已经能和自己的DeepSeek聊天了。记得截个图发朋友圈,配文“自己搭的AI助手,不用联网也能用”,绝对能唬住一圈人——我表妹就这么干过,她同事还以为她是技术大神呢。

    对了,如果你试了之后遇到奇怪的问题,或者某一步卡住了,评论区告诉我你的电脑配置和报错信息,我看到都会回。毕竟我也是从“对着命令行发呆”过来的,知道新手踩坑有多难受~


    本地部署和在线用DeepSeek,差别其实就像自己做饭和点外卖——各有各的方便,但场景不一样。先说说你可能最关心的隐私问题,本地部署最大的好处就是数据完全在你电脑里跑,不用担心聊天记录、文件内容上传到别人服务器。我之前帮一个做设计的朋友部署时,他就特别在意这个,因为经常要处理客户的保密方案,用本地版聊方案、改设计稿,连网都不用连,安全感直接拉满。反观在线版,虽然方便,但你输入的每句话其实都要传到云端处理,万一聊的是公司内部数据或者个人日记,心里多少有点不踏实。

    再说说速度和体验,这可能是你用起来最直观的区别。如果你的电脑配置一般,比如8G内存、没独立显卡,跑本地版会感觉回答问题慢半拍,大概等1-2秒才出字,就像你问朋友问题,他得想一会儿才回答;但要是16G内存加个好点的显卡,那就跟在线版差不多了,输入问题回车,答案唰地就出来。在线版就没这个烦恼,不管你电脑啥配置,只要网好,响应速度都快,毕竟算力在人家服务器上。不过在线版有个小缺点,万一网络卡了或者服务器维护,你就只能干等着,本地版就没这问题,断网了照样能用,我上次出差住酒店,WiFi差得要命,全靠本地部署的DeepSeek写工作报告,没耽误事。

    功能上也得说道说道,在线版就像个“自动更新的智能手机”,官方每周可能都会悄悄加新功能,比如突然能生成表格了、支持多轮对话记忆了,你打开网页就能用;但本地版是“功能固定的老人机”,模型是你下载时的版本,要想用上新功能,得自己去官网下载最新的模型包,跟给手机手动刷机似的。我表妹刚开始用本地版,发现不能生成思维导图,还以为是自己没装好,后来才知道得更新模型,折腾半天才弄好。所以如果你是“科技小白”,不想总捣鼓更新,在线版肯定更省心;但要是喜欢折腾,想自己调调模型参数、试试不同版本,本地版反而更有玩头。

    其实选哪个主要看你日常咋用:要是经常出差没网、或者手头有不少敏感内容,本地部署绝对值得花1小时折腾;要是就偶尔聊聊天、查点资料,网络又稳定,在线版点一下就能用,省事儿。我自己是两个都留着,写私密东西用本地,随便闲聊就用在线,反正各取所长嘛。


    本地部署DeepSeek对电脑配置要求高吗?

    不算高,普通家用电脑也能跑。最低配置要求:Windows 10/11、macOS 10.15+或Linux系统,8GB内存(勉强跑轻量版),20GB空闲硬盘空间;推荐配置:16GB以上内存、50GB+硬盘空间,若有NVIDIA显卡(4GB显存以上)会更流畅。没有独立显卡也能用CPU运行,只是响应速度稍慢,日常写文案、查资料足够。

    安装Python时忘记勾选“Add Python to PATH”怎么办?

    不用重装Python,手动添加环境变量即可。Windows用户:按Win+S搜“环境变量”→“编辑系统环境变量”→“环境变量”→在“系统变量”中找到“Path”→点击“编辑”→“新建”,输入Python安装路径(默认路径通常是“C:Users你的用户名AppDataLocalProgramsPythonPython310”)和“Scripts”文件夹路径(同上路径+Scripts),点击确定即可。Mac/Linux用户可在终端输入“echo ‘export PATH=”$PATH:/usr/local/bin/python3″‘ >> ~/.bash_profile”(具体路径根据安装位置调整)。

    模型下载太慢或失败,有其他渠道吗?

    国内用户推荐优先使用阿里ModelScope(modelscope.cn)下载,速度比Hugging Face快很多。在ModelScope搜索“DeepSeek”,选择对应模型(如轻量版“DeepSeek-R1.3B-Chat”),直接下载或用迅雷等工具加速。若浏览器下载中断,可尝试复制下载链接,用命令行工具(如Windows的aria2、Mac的wget)断点续传,避免重复下载。

    启动后浏览器打不开DeepSeek界面怎么办?

    先检查命令行输出,若显示“Address already in use”,说明端口被占用,可换端口启动:在命令行输入“python webui.py port 8080”(8080可替换为8000、9000等未占用端口),再用浏览器访问“http://127.0.0.1:8080”。若提示“找不到模型”,检查configs/chat.yaml文件中“model_path”路径是否正确,确保和模型文件存放位置一致(可直接将模型文件夹拖进命令行获取路径)。

    本地部署的DeepSeek和在线版有什么区别?

    主要区别在三点:①隐私性:本地部署数据不联网,适合处理敏感内容(如工作文档、个人笔记);②速度:受电脑配置影响,低配设备响应比在线版慢1-2秒,高配设备接近在线体验;③功能:本地版通常是轻量模型,复杂功能(如图文生成、多轮对话记忆)可能比在线版弱,需手动更新模型文件才能升级。如果对隐私要求高、网络不稳定,本地部署更合适;若追求最新功能和最快速度,可优先用在线版。

    原文链接:https://www.mayiym.com/44214.html,转载请注明出处。
    0
    显示验证码
    没有账号?注册  忘记密码?

    社交账号快速登录

    微信扫一扫关注
    如已关注,请回复“登录”二字获取验证码