在人工智能和机器学习快速发展的今天,将训练好的模型部署到生产环境中变得越来越重要。对于使用 Ubuntu 系统的开发者来说,掌握如何高效地部署模型服务是一项必备技能。本教程将从零开始,详细讲解如何在 Ubuntu 上配置并运行一个深度学习模型服务,即使你是完全的小白也能轻松上手。
首先,确保你的 Ubuntu 系统已更新,并安装 Python 和 pip:
sudo apt updatesudo apt upgrade -ysudo apt install python3 python3-pip python3-venv -y 接着,创建一个虚拟环境来隔离项目依赖(推荐做法):
python3 -m venv model_deploy_envsource model_deploy_env/bin/activate 我们将使用 Flask 构建一个简单的 Web API 来提供模型推理服务。Flask 轻量、易用,非常适合初学者。在激活的虚拟环境中执行:
pip install flask torch torchvision numpy 如果你使用的是 TensorFlow 模型,可替换为 tensorflow。
假设你已有一个训练好的 PyTorch 图像分类模型(例如 ResNet18),我们将其封装为一个 RESTful API。创建文件 app.py:
from flask import Flask, request, jsonifyimport torchimport torchvision.transforms as transformsfrom PIL import Imageimport io# 初始化 Flask 应用app = Flask(__name__)# 加载预训练模型(此处以 ResNet18 为例)model = torch.hub.load('pytorch/vision', 'resnet18', pretrained=True)model.eval()# 图像预处理transform = transforms.Compose([ transforms.Resize(256), transforms.CenterCrop(224), transforms.ToTensor(), transforms.Normalize(mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225])])@app.route('/predict', methods=['POST'])def predict(): if 'file' not in request.files: return jsonify({'error': 'No file provided'}), 400 file = request.files['file'] img_bytes = file.read() img = Image.open(io.BytesIO(img_bytes)).convert('RGB') img_t = transform(img) batch_t = torch.unsqueeze(img_t, 0) with torch.no_grad(): output = model(batch_t) # 获取预测类别(简化处理) _, predicted_idx = torch.max(output, 1) return jsonify({'class_id': predicted_idx.item()})if __name__ == '__main__': app.run(host='0.0.0.0', port=5000) 在终端中运行以下命令启动服务:
python app.py 服务默认监听 http://0.0.0.0:5000/predict。你可以使用 curl 或 Postman 测试接口:
curl -X POST -F "file=@cat.jpg" http://localhost:5000/predict 上述方式适合开发测试,但在生产环境中,建议使用 Gunicorn 作为 WSGI 服务器,并配合 Nginx 做反向代理,提升并发能力和稳定性。
pip install gunicorn# 启动 Gunicorngunicorn -w 4 -b 0.0.0.0:5000 app:app 通过以上步骤,你就成功在 Ubuntu 上完成了 Ubuntu模型部署 的基础配置。无论是用于图像识别、自然语言处理还是其他 AI 任务,这套流程都具有良好的通用性。
本文详细介绍了如何在 Ubuntu 系统中从零开始搭建一个深度学习模型服务。我们涵盖了环境准备、依赖安装、API 编写、服务启动以及生产部署建议。无论你是刚接触 模型服务配置 的新手,还是希望优化现有流程的开发者,都能从中受益。记住,深度学习部署 不仅是技术活,更是工程实践的关键一环。掌握 Ubuntu AI服务 的部署方法,将大大提升你的 AI 项目落地效率。
祝你在 Ubuntu 上的模型部署之旅顺利!
本文由主机测评网于2025-12-10发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://www.vpshk.cn/2025125472.html