您的位置:首页 >基于Ollama本地安装部署DeepSeek教程(图)
发布于2026-05-03 阅读(0)
扫一扫,手机访问
DeepSeek最近火得不行,你是不是也想把它免费装到自己电脑上?想拥有这个“最强大脑”的顶级推理能力,其实路径很清晰:先在本地安装Ollama这个大模型运行框架,然后通过它来拉取和运行DeepSeek模型。下面这份详细教程,带你一步步走通整个过程。
第一步,访问Ollama的官方网站:ollama.com。进入首页后,找到那个醒目的“Download”按钮,点击它。参考下图:

这样一来,Ollama的安装程序就准备下载到你的本地电脑了。
接下来,根据你电脑的操作系统,选择对应的版本进行下载安装。Ollama目前对macOS、Linux和Windows这些主流系统都提供了完善的支持。至于具体的下载和安装步骤,这里就不展开细说了,跟着官方引导走,通常都很顺畅。
安装完成后,关键是要确保Ollama在后台正常运行。这个步骤其实很简单。以Mac电脑为例,你只需要留意屏幕顶部菜单栏——如果能看到那个可爱的小羊驼图标,就说明Ollama已经在默默工作了。如下图所见:

只要这个小图标出现,就表示环境已经就绪,可以进行下一步操作了。
模型从哪里找?同样是在Ollama的官网。打开网站,在搜索框里输入“deepseek”进行搜索。结果页面会清晰地列出相关模型,如下图所示:

没错,那个备受关注的deepseek-r1系列大模型就在那里。
点击进入deepseek-r1的详情页,你会发现它提供了多个不同参数规模的版本,比如1.5b、7b、8b、14b、32b、70b乃至671b。这里有个重要的选择逻辑:模型大小直接决定了它对电脑硬件的要求。参数越大的模型,通常需要越高的显存、显卡性能和内存配置。
具体该怎么选?一个基本原则是,根据你本地设备的配置量力而行。可以参考这个思路:如果你只是想快速体验或硬件资源有限,那么小参数模型(如1.5b、7b)是更轻量、更快速的选择;如果你的电脑配置较高,尤其是拥有性能不错的显卡和充足的内存,那么完全可以挑战更大的模型(如14b、32b甚至更高),以获得更强大的推理能力。关于这些版本之间更具体的区别,网上有详细的对比资料可供查阅。
选好模型后,怎么让它跑起来?操作命令其实非常直接。确定你想要运行的特定模型版本,然后复制对应的命令行,粘贴到你的终端(Terminal)里执行即可。
各个版本的运行命令如下:
DeepSeek-R1-Distill-Qwen-1.5B:
ollama run deepseek-r1:1.5b
DeepSeek-R1-Distill-Qwen-7B:
ollama run deepseek-r1:7b
DeepSeek-R1-Distill-Llama-8B:
ollama run deepseek-r1:8b
DeepSeek-R1-Distill-Qwen-14B:
ollama run deepseek-r1:14b
DeepSeek-R1-Distill-Qwen-32B:
ollama run deepseek-r1:32b
DeepSeek-R1-Distill-Llama-70B:
ollama run deepseek-r1:70b
这里以1.5B版本为例。复制 ollama run deepseek-r1:1.5b 这条命令,在终端粘贴并按下回车。接下来,你会看到终端开始拉取模型文件,耐心等待进度条“pulling manifest”达到100%。这个过程如下图所示:

下载完成后,你的本地DeepSeek模型就部署成功了!现在可以开始尽情“折腾”它了。比如,在终端输入你的第一个问题:“阿里云会让我财富自由吗?”,看看它会如何回答。效果类似下图:

对话结束后,如果想退出当前的模型交互界面,直接在终端输入 /bye 命令即可。
说到这里需要提一下,本篇教程核心是教你如何通过Ollama这个框架来运行DeepSeek。关于Ollama本身更丰富的终端指令和高级操作,比如模型管理、参数调整等,网上有非常多的资源可供深入探索,这里就不赘述了。祝你部署顺利,玩得开心!
售后无忧
立即购买>office旗舰店
售后无忧
立即购买>office旗舰店
售后无忧
立即购买>office旗舰店
售后无忧
立即购买>office旗舰店
正版软件
正版软件
正版软件
正版软件
正版软件
1
2
3
7
9