PVE 超融合方案实战:Ceph 存储的部署、管理与故障排除
引言
在 Proxmox VE(PVE)集群中,Ceph 是一个强大的分布式存储系统,能够提供高可用、可扩展的存储解决方案。
它特别适合超融合架构(HCI),让计算和存储资源在同一批服务器上运行,既节省成本又提高性能。
本文将从 Ceph 的部署、日常管理、性能优化 到 常见故障排查,一步步带你掌握 PVE 上的 Ceph 存储方案。
1. Ceph 在 PVE 中的作用
Ceph 是一个开源的分布式存储系统,在 PVE 中主要用于:
• 存储虚拟机(VM)和容器(LXC)的磁盘(通过 RBD 块存储)。 • 提供共享文件系统(CephFS),可用于存放 ISO 镜像、备份等。 • 支持对象存储(RADOS Gateway,可选)。
它的核心优势: ✅ 高可用:数据默认 3 副本存储,即使一台服务器宕机,数据仍然可用。
✅ 弹性扩展:可以随时添加硬盘或节点来扩容存储。
✅ 自动均衡:Ceph 会自动调整数据分布,优化性能和空间利用率。
2. Ceph 部署指南
(1)硬件准备
• 服务器:至少 3 台 PVE 节点(推荐相同配置)。 • 存储:每台服务器至少 1 块 SSD(用于系统) + 多块 HDD/SSD(用于 Ceph OSD)。 • 网络:建议 10Gbps 或更高,并启用 MTU 9000(巨型帧) 以减少延迟。
(2)安装 Ceph
在 PVE Web 界面操作:
1. 创建 Ceph 集群: • 进入 PVE 集群 > Ceph > 安装,选择所有节点,点击“安装 Ceph”。 2. 添加 OSD(存储设备): • 进入 Ceph > OSD,选择每台服务器上的硬盘,格式化为 OSD。 3. 创建存储池(Pool): • 在 Ceph > Pool 中新建 Pool,推荐使用 3 副本(Replicated) 模式。
# 命令行方式创建 Pool(可选)
pveceph pool create vm_storage --pg_num 128 --add_storages3. Ceph 日常管理
(1)监控集群状态
ceph -s # 查看集群健康状态
ceph osd df # 查看 OSD 使用情况
ceph df # 查看存储池空间使用(2)扩容存储
• 增加 OSD:在 Ceph > OSD 中添加新硬盘。 • 增加节点:在新服务器上安装 PVE 并加入 Ceph 集群。
(3)调整副本数
ceph osd pool set vm_storage size 3 # 设置 3 副本(默认)
ceph osd pool set vm_storage min_size 2 # 允许降级时仍可写入4. 性能优化技巧
(1)网络优化
• 使用 10G/40G 网络,并开启 Jumbo Frames(MTU 9000)。 • 如果支持,可启用 RDMA(RoCE) 进一步降低延迟。
(2)OSD 优化
• SSD + HDD 混合存储:用 SSD 作为 WAL/DB 设备,提升 HDD 的随机写入性能。 • 调整 OSD 参数(在 /etc/ceph/ceph.conf中修改):osd_op_threads = 8
osd_recovery_max_active = 4
(3)BIOS 优化
• 关闭 CPU 节能模式(设置为 Performance)。 • 开启 VT(虚拟化支持)。
5. 常见故障排查
(1)OSD 故障
ceph osd out osd.0 # 下线故障 OSD
pveceph osd destroy 0 # 彻底移除 OSD
ceph osd crush rm osd.0 # 从 CRUSH Map 删除(可选)(2)节点宕机
• 如果节点宕机但 OSD 仍在运行: ceph osd set noout # 防止自动恢复导致网络拥堵
ceph osd unset noout # 恢复后取消
(3)存储池(Pool)空间不足
ceph osd pool set vm_storage pg_num 256 # 增加 PG 数量(需谨慎)
ceph osd pool set vm_storage pgp_num 256 # 同步调整 PGP总结
PVE + Ceph 是构建超融合集群的理想方案,既能提供高性能存储,又能保证数据高可用。本文介绍了:
• Ceph 的部署流程(硬件要求、安装步骤)。 • 日常管理(监控、扩容、调整副本)。 • 性能优化(网络、OSD、BIOS 调优)。 • 常见故障排查(OSD 故障、节点宕机、Pool 调整)。
如果你正在规划 PVE 集群存储方案,Ceph 绝对值得尝试!?
本文链接:https://www.kinber.cn/post/5385.html 转载需授权!
推荐本站淘宝优惠价购买喜欢的宝贝:

支付宝微信扫一扫,打赏作者吧~
