当前位置:首页 > 系统教程 > 正文

Ubuntu 24.04 部署 Ollama 与模型拉取指南 (从零开始,小白也能轻松掌握)

Ubuntu 24.04 部署 Ollama 与模型拉取指南 (从零开始,小白也能轻松掌握)

欢迎来到本教程!我们将一起在最新的 Ubuntu 24.04 系统上完成 Ollama 的部署,并学会如何拉取流行的大语言模型。无论你是 AI 爱好者还是开发者,这篇文章都将帮助你快速上手 模型部署拉取模型 的全过程。

1. 准备工作:更新系统

在开始之前,确保你的 Ubuntu 24.04 系统已经更新到最新。打开终端,执行以下命令:

sudo apt update && sudo apt upgrade -y

2. 安装 Ollama

Ollama 提供了简洁的安装脚本,一行命令即可完成安装:

curl -fsSL https://ollama.com/install.sh | sh

该脚本会自动检测你的 Ubuntu 24.04 系统,添加官方仓库并安装 Ollama 包。安装完成后,Ollama 会作为系统服务运行。

3. 启动与验证 Ollama 服务

安装后,Ollama 服务应该已经自动启动。你可以用以下命令检查状态:

systemctl status ollama

如果未运行,可以手动启动并设置开机自启:

sudo systemctl start ollamasudo systemctl enable ollama

验证安装版本:

ollama --version

4. 拉取模型:以 Llama 2 为例

现在我们可以进行关键的 拉取模型 操作。Ollama 支持众多开源模型,执行以下命令拉取 Meta 的 Llama 2 7B 模型:

ollama pull llama2

拉取过程会显示进度条,模型文件通常存储在 ~/.ollama/models/ 目录下。根据网络速度,可能需要几分钟到几十分钟。你也可以拉取其他模型,如 mistralcodellama 等。

Ubuntu 24.04 部署 Ollama 与模型拉取指南 (从零开始,小白也能轻松掌握)  模型部署 拉取模型 第1张

▲ 使用 ollama pull 拉取模型时的典型输出

5. 运行模型进行对话

模型拉取完成后,你可以直接通过命令行与它交互:

ollama run llama2

进入交互界面后,输入你的问题,模型会生成回答。输入 /bye 退出。

6. 管理本地模型

查看已拉取的模型列表:

ollama list

如果需要删除某个模型,例如删除 llama2

ollama rm llama2

7. 常见问题与解决

  • 端口占用: Ollama 默认使用 11434 端口,如有冲突可修改配置文件 /etc/systemd/system/ollama.service 中的环境变量。
  • 内存不足: 拉取或运行大模型时若出现 killed,请确保系统有足够内存(建议 8GB 以上)或增加交换空间。
  • 权限问题: 确保你的用户有权限访问 ~/.ollama 目录,必要时使用 sudo 执行命令。

8. 结语

至此,你已经在 Ubuntu 24.04 上成功完成了 Ollama 的安装、模型部署拉取模型 的实践。现在你可以尽情探索不同模型的魅力,并将其集成到你的项目中。如果在过程中遇到任何问题,欢迎查阅 Ollama 官方文档或社区讨论。祝你玩得开心!

本文关键词:Ubuntu 24.04、Ollama、模型部署、拉取模型