如何在 Linux 本地运行 DeepSeek-R1

本文翻译自 https://itsfoss.com/install-deepseek-r1-locally-linux/

DeepSeek 引爆 AI 界!本地运行更安全

img

DeepSeek 近期席卷 AI 领域,许多人习惯在官方网站上使用它,但我们都知道,没有什么地方比 127.0.0.1 更安心 😉。

不过,最近的一些事件,例如 DeepSeek AI 遭受网络攻击,暂停新用户注册DeepSeek AI 数据库泄露,让人不禁思考:为什么更多人不选择在本地运行 LLM(大型语言模型)呢?

本地运行 AI 不仅能确保数据隐私,还能让你完全掌控 AI 的行为,避免数据落入他人之手。

在本指南中,我们将向你介绍如何在 Linux 机器上安装 DeepSeek R1,并使用 Ollama 作为后端,Open WebUI 作为前端,让你的 AI 随时随地可用!

步骤 1:安装 Ollama

在安装 DeepSeek 之前,我们需要一个高效的 LLM 运行环境,这正是 Ollama 的用武之地。

Ollama 是什么?

Ollama 是一个轻量级且强大的本地 LLM 运行平台,简化了模型管理,让你可以 轻松下载、运行和交互

最大亮点? 它屏蔽了所有复杂性——无需手动配置依赖项或设置虚拟环境。

安装 Ollama

在终端运行以下命令即可安装 Ollama:

1
curl -fsSL https://ollama.com/install.sh | sh

安装完成后,运行以下命令确认安装成功:

1
ollama --version

步骤 2:安装并运行 DeepSeek 模型

有了 Ollama,运行 DeepSeek 变得极为简单。只需运行:

1
ollama run deepseek-r1:1.5b

此命令将下载 DeepSeek-R1 1.5B 模型,这是一个小巧但强大的 AI 模型,支持文本生成、问答等任务。

下载完成后,你可以在终端直接与 DeepSeek 交互:

1
ollama run deepseek-r1:1.5b

但说实话,终端界面并不够直观,我们可以选择 Web UI 方式 来获得更好的使用体验。我推荐使用 Open WebUI

步骤 3:安装 Open WebUI

Open WebUI 提供了一个美观的界面,使得 DeepSeek 交互更便捷。你可以选择 两种安装方式

  1. 直接安装
  2. 使用 Docker(推荐)

方法 1:直接安装

如果你不想使用 Docker,可以手动安装 Open WebUI。

步骤 1:安装 Python 和虚拟环境

在终端运行:

1
sudo apt install python3-venv -y

步骤 2:创建虚拟环境

创建并激活 Python 虚拟环境:

1
2
python3 -m venv ~/open-webui-venv
source ~/open-webui-venv/bin/activate

步骤 3:安装 Open WebUI

在虚拟环境中运行:

1
pip install open-webui

步骤 4:运行 Open WebUI

启动 Open WebUI 服务器:

1
open-webui serve

然后,在浏览器访问: 👉 http://localhost:8080

方法 2:使用 Docker(推荐)

如果你的系统支持 Docker,这种方式更为方便。

步骤 1:拉取 Open WebUI Docker 镜像

运行以下命令下载最新的 Open WebUI 版本:

1
docker pull ghcr.io/open-webui/open-webui:main

步骤 2:运行 Open WebUI 容器

执行以下命令启动 Open WebUI:

1
2
3
4
5
6
7
docker run -d \
-p 3000:8080 \
--add-host=host.docker.internal:host-gateway \
-v open-webui:/app/backend/data \
--name open-webui \
--restart always \
ghcr.io/open-webui/open-webui:main

完成后,在浏览器访问: 👉 http://localhost:3000

总结

至此,你已经成功在 Linux 机器上 本地运行 DeepSeek R1,并通过 Open WebUI 提供友好的 Web 界面进行交互。

🎯 你可以让 DeepSeek 生成诗歌、回答问题,甚至挑战它进行更高级的任务! 🎯 你也可以尝试在 树莓派 5 上运行 DeepSeek,看看它的表现如何!(参考 -> 在小小的树莓派中运行 70 亿参数的多模态大语言模型

无论你是 AI 研究者还是爱好者,本地运行 LLM 都是值得尝试的选择。享受你的 AI 私有助手 吧!🚀

“觉得不错的话,给点打赏吧 (✿◕‿◕✿)”

微信二维码

微信支付

支付宝二维码

支付宝支付 (暂不支持)

如何在 Linux 本地运行 DeepSeek-R1
https://lixuannan.github.io/posts/8917.html
作者
CodingCow Lee
发布于
2025年2月26日
许可协议