如何在 Linux 本地运行 DeepSeek-R1
本文翻译自 https://itsfoss.com/install-deepseek-r1-locally-linux/
DeepSeek 引爆 AI 界!本地运行更安全

DeepSeek 近期席卷 AI
领域,许多人习惯在官方网站上使用它,但我们都知道,没有什么地方比
127.0.0.1
更安心 😉。
不过,最近的一些事件,例如 DeepSeek AI 遭受网络攻击,暂停新用户注册 和 DeepSeek AI 数据库泄露,让人不禁思考:为什么更多人不选择在本地运行 LLM(大型语言模型)呢?
本地运行 AI 不仅能确保数据隐私,还能让你完全掌控 AI 的行为,避免数据落入他人之手。
在本指南中,我们将向你介绍如何在 Linux 机器上安装 DeepSeek R1,并使用 Ollama 作为后端,Open WebUI 作为前端,让你的 AI 随时随地可用!
步骤 1:安装 Ollama
在安装 DeepSeek 之前,我们需要一个高效的 LLM 运行环境,这正是 Ollama 的用武之地。
Ollama 是什么?
Ollama 是一个轻量级且强大的本地 LLM 运行平台,简化了模型管理,让你可以 轻松下载、运行和交互。
最大亮点? 它屏蔽了所有复杂性——无需手动配置依赖项或设置虚拟环境。
安装 Ollama
在终端运行以下命令即可安装 Ollama:
1 |
|
安装完成后,运行以下命令确认安装成功:
1 |
|
步骤 2:安装并运行 DeepSeek 模型
有了 Ollama,运行 DeepSeek 变得极为简单。只需运行:
1 |
|
此命令将下载 DeepSeek-R1 1.5B 模型,这是一个小巧但强大的 AI 模型,支持文本生成、问答等任务。
下载完成后,你可以在终端直接与 DeepSeek 交互:
1 |
|
但说实话,终端界面并不够直观,我们可以选择 Web UI 方式 来获得更好的使用体验。我推荐使用 Open WebUI。
步骤 3:安装 Open WebUI
Open WebUI 提供了一个美观的界面,使得 DeepSeek 交互更便捷。你可以选择 两种安装方式:
- 直接安装
- 使用 Docker(推荐)
方法 1:直接安装
如果你不想使用 Docker,可以手动安装 Open WebUI。
步骤 1:安装 Python 和虚拟环境
在终端运行:
1 |
|
步骤 2:创建虚拟环境
创建并激活 Python 虚拟环境:
1 |
|
步骤 3:安装 Open WebUI
在虚拟环境中运行:
1 |
|
步骤 4:运行 Open WebUI
启动 Open WebUI 服务器:
1 |
|
然后,在浏览器访问: 👉 http://localhost:8080
方法 2:使用 Docker(推荐)
如果你的系统支持 Docker,这种方式更为方便。
步骤 1:拉取 Open WebUI Docker 镜像
运行以下命令下载最新的 Open WebUI 版本:
1 |
|
步骤 2:运行 Open WebUI 容器
执行以下命令启动 Open WebUI:
1 |
|
完成后,在浏览器访问: 👉 http://localhost:3000
总结
至此,你已经成功在 Linux 机器上 本地运行 DeepSeek R1,并通过 Open WebUI 提供友好的 Web 界面进行交互。
🎯 你可以让 DeepSeek 生成诗歌、回答问题,甚至挑战它进行更高级的任务! 🎯 你也可以尝试在 树莓派 5 上运行 DeepSeek,看看它的表现如何!(参考 -> 在小小的树莓派中运行 70 亿参数的多模态大语言模型)
无论你是 AI 研究者还是爱好者,本地运行 LLM 都是值得尝试的选择。享受你的 AI 私有助手 吧!🚀
“觉得不错的话,给点打赏吧 (✿◕‿◕✿)”

微信支付

支付宝支付 (暂不支持)