通过 Ollama 实现 DeepSeek AI 大模型的本地部署

通过 Ollama 实现 DeepSeek AI 大模型的本地部署

温馨提示: 本文最后更新于 2025-02-05 11:59:57,某些文章具有时效性,若有错误或已失效,请在下方留言!

前言

最近,Deepseek 在网上引起了热议,在 AI 领域掀起了一股热潮,作为国产开源大模型,更是备受关注。

趁着早晨的空闲时间,我查阅了大量关于 Deepseek 的相关教程,并尝试在本地完成部署。在此过程中,我整理出了一篇详细的图文教程,希望能帮助更多人顺利安装并体验这个强大的国产开源大模型。🚀

本次教程基于Ollama进行部署,熟悉本地 AI 部署的朋友应该都不陌生。不过,由于我平时没有太多本地部署的需求,因此接触 Ollama 并不算多,能够让我产生本地部署的动力的也只有DeepSeek了。

部署教程

安装Ollama

打开 Ollama官网(https://ollama.com) ,点击 Download 按钮,并根据你的电脑系统选择合适的版本进行下载。

图片[1]-通过 Ollama 实现 DeepSeek AI 大模型的本地部署-小鱼冻干

安装完成后,按 Win + R,输入 cmd 并回车打开终端。然后输入 ollama,如果终端能够正常显示相关信息,则说明安装成功。

PS C:\Users\sunny> ollama
Usage:
  ollama [flags]
  ollama [command]

Available Commands:
  serve       Start ollama
  create      Create a model from a Modelfile
  show        Show information for a model
  run         Run a model
  stop        Stop a running model
  pull        Pull a model from a registry
  push        Push a model to a registry
  list        List models
  ps          List running models
  cp          Copy a model
  rm          Remove a model
  help        Help about any command

Flags:
  -h, --help      help for ollama
  -v, --version   Show version information

Use "ollama [command] --help" for more information about a command.

安装模型

打开 Ollama官网(https://ollama.com) ,在顶部的搜索栏输入 Deepseek,然后选择 R1 模型。

图片[2]-通过 Ollama 实现 DeepSeek AI 大模型的本地部署-小鱼冻干

Ollama 官网,你可以看到官方提供了多个 Deepseek R1 模型版本,如 1.5b7b8b14b32b70b67b 等。需要注意的是,参数越大的版本所占用的存储空间也会越大,同时计算要求也会更高。

图片[3]-通过 Ollama 实现 DeepSeek AI 大模型的本地部署-小鱼冻干



下面是 DeepSeek R1 模型的配置参考及运行方式,大家可以根据自己的硬件配置和需求选择合适的 Deepseek R1 模型版本进行下载。📋

图片[4]-通过 Ollama 实现 DeepSeek AI 大模型的本地部署-小鱼冻干

我这里以 1.5B 版本为例,选择好 1.5B 后,点击旁边的 复制按钮 复制相关的下载命令。

图片[5]-通过 Ollama 实现 DeepSeek AI 大模型的本地部署-小鱼冻干

然后,在终端(CMD/PowerShell)中 粘贴刚刚复制的命令,接着 回车 开始拉取模型镜像:

图片[6]-通过 Ollama 实现 DeepSeek AI 大模型的本地部署-小鱼冻干

值得注意的是,可能会因为网络问题或其他原因导致拉取失败,如果遇到类似情况,可以 挂上梯子(科学上网),然后多尝试几次,通常就能顺利下载模型! 🚀

图片[7]-通过 Ollama 实现 DeepSeek AI 大模型的本地部署-小鱼冻干

使用Deepseek

我们可以通过 ollama list 来查看已经下载好的模型:

图片[8]-通过 Ollama 实现 DeepSeek AI 大模型的本地部署-小鱼冻干

接着我们通过 ollama run + 模型名 来运行该模型

图片[9]-通过 Ollama 实现 DeepSeek AI 大模型的本地部署-小鱼冻干

运行后,终端会进入交互模式,输入问题即可与 DeepSeek R1 进行对话! 🚀

安装对话UI

进入 Chrome 插件商店并安装 Page Assist 插件

图片[10]-通过 Ollama 实现 DeepSeek AI 大模型的本地部署-小鱼冻干

接着,在右上角点击扩展按钮,找到 Page Assist 插件并点击进入其界面。

图片[11]-通过 Ollama 实现 DeepSeek AI 大模型的本地部署-小鱼冻干

第一次进入时,界面为英文,我们需要点击右上角的设置按钮,将语言设置为中文。

图片[12]-通过 Ollama 实现 DeepSeek AI 大模型的本地部署-小鱼冻干

接着返回主页左上角,选择我们刚刚安装好的模型,点击即可开始对话。

图片[13]-通过 Ollama 实现 DeepSeek AI 大模型的本地部署-小鱼冻干

设置Prompt

点击右上角的大模型设置

图片[14]-通过 Ollama 实现 DeepSeek AI 大模型的本地部署-小鱼冻干

在这里,我们可以设置 Prompt 等参数

图片[15]-通过 Ollama 实现 DeepSeek AI 大模型的本地部署-小鱼冻干

自定义知识库

我们需要一个文本嵌入模型,打开终端,执行 ollama pull nomic-embed-text

图片[16]-通过 Ollama 实现 DeepSeek AI 大模型的本地部署-小鱼冻干

拉取完成以后,点击右上角的设置→RAG设置 → 选择本文嵌入模型 nomic-embed-text ,接着点击保存。

图片[17]-通过 Ollama 实现 DeepSeek AI 大模型的本地部署-小鱼冻干

接着点击管理知识→添加新知识,你可以在这里上传你的知识库,支持的文件类型有:.pdf, .csv, .txt, .md

图片[18]-通过 Ollama 实现 DeepSeek AI 大模型的本地部署-小鱼冻干

然后返回到主页,点击下方的知识图标,选择我们刚刚创建好的知识库。

图片[19]-通过 Ollama 实现 DeepSeek AI 大模型的本地部署-小鱼冻干

接下来就可以开始对话互动了。

图片[20]-通过 Ollama 实现 DeepSeek AI 大模型的本地部署-小鱼冻干

更多相关资料,大家可以参考Deepseek相关文档:https://ollama.readthedocs.io

© 版权声明
THE END
喜欢就支持一下吧
点赞6赞赏 分享
评论 共2条

请登录后发表评论

      • sunny的头像-小鱼冻干sunny等级-LV2-小鱼冻干作者0