在小小的树莓派中运行 70 亿参数的多模态大语言模型

本文翻译自 https://itsfoss.com/raspberry-pi-ollama-ai-setup/

最近,我遇到了一个叫做 Ollama 的有趣项目。它是一个开源项目,可以让你在本地运行各种大型语言模型(LLM)。

在浏览 Reddit 社区时,我遇到了一些讨论如何在Raspberry Pi上运行LLM的帖子。

我很想验证这个“说法”,所以我决定在我的 Raspberry Pi 4 上使用 Ollama 本地运行 LLM

让我在这篇简短的文章中与大家分享我的实验。

📋本文假设你对 AI、LLM 及其他相关工具和术语有基本了解。

在 Raspberry Pi OS(以及其他 Linux 系统)上安装 Ollama

安装 Ollama 的过程非常简单。要在 Linux 上安装,你只需要获取他们的官方安装脚本并运行它。这是他们网站上描述的官方方法。

下载 Ollama

你可以手动下载并阅读它的内容。或者,如果你像我一样懒,可以将两者合并为一个命令:

1
curl https://ollama.ai/install.sh | sh
安装 Ollama

探索不同的模型

安装完成后,你就可以在 Pi 上运行 LLM 并开始与 AI 聊天了。

在我的实验中,我使用了 tinyllamaphillava 这三个 LLM。但你也可以尝试 Ollama 库中其他的语言模型。Ollama 的库里有很多模型。

📋要运行 7B 模型,至少需要 8 GB 的 RAM;要运行 13B 模型,需要 16 GB;要运行 33B 模型,则需要 32 GB。

TinyLlama

我们先从 TinyLlama开始,它有 11 亿个参数,是第一个尝试的完美选择。

要下载并运行 TinyLlama,你需要输入以下命令:

1
ollama run tinyllama
安装 TinyLlama

下载语言模型需要几秒钟,下载完成后,你就可以开始与它聊天了。

我问AI的问题是:“html 中的 div 标签有什么用?”

使用TinyLlama

这是完整的答案和它所花费的时间:

TinyLlama回答

好吧,谁能想到 AI 在 Raspberry Pi 上运行得这么快?

phi

接下来,我们来试试更大的模型,比如 phi,它是一个基于 27 亿参数的语言模型。我认为我们的 Raspberry Pi 也能处理它。

要安装并运行这个模型,输入以下命令:

1
ollama run phi
下载模型

你可以像我一样问它一些问题:“网络交换机和集线器有什么区别?”

询问问题

这是 phi 给出的完整答案和其他细节:

Phi LLM 的答案

llava

这是我测试的最大的 LLM,它有 70 亿个参数。我要求它描述一张图片,而不是问简单的问题。

我正在使用一个 4 GB 的 Raspberry Pi 4 模型,我觉得它可能无法像之前的语言模型那样运行得很好。

但我们还是来测试一下。要安装 llava,使用以下命令:

1
ollama run llava

由于模型较大,大约有 3.9 GB,它需要一些时间来下载。

Ollama 安装 llava LLM

我将要求这个模型描述存储在 /media/hdd/shared/test.jpg 目录中的一张猫的图片。

Llava 描述图片

我不得不在过程中终止它,因为它回答的时间太长了(超过 30 分钟)。

但你可以看到,回答非常准确,如果你有最新的 8 GB RAM 的 Raspberry Pi 5,你就可以轻松运行 \(70\) 亿参数的语言模型了。

结论

将 Raspberry Pi 5 与 Ollama 结合,建立了一个强大的基础,适合任何希望在本地运行开源 LLM 的人。

无论你是一个开发者,努力推动紧凑计算的边界,还是一个热衷于探索语言处理领域的爱好者,这个设置都提供了无数的机会。

当然,你也可以在普通的 Linux 发行版上使用 Ollama。

欢迎在评论区分享你对 Ollama 的想法和体验。

“觉得不错的话,给点打赏吧 (✿◕‿◕✿)”

微信二维码

微信支付

支付宝二维码

支付宝支付 (暂不支持)

在小小的树莓派中运行 70 亿参数的多模态大语言模型
https://lixuannan.github.io/posts/21637.html
作者
CodingCow Lee
发布于
2025年2月3日
许可协议