0
点赞
收藏
分享

微信扫一扫

y2.第一章 Ceph企业级存储实战进阶 -- Ceph简介和部署Ceph集群(二)

2.5 ceph 逻辑组织架构

Pool:存储池、分区,存储池的大小取决于底层的存储空间。
PG(placement group):一个pool 内部可以有多个PG 存在,pool 和PG 都是抽象的逻辑概念,一个pool 中有多少个PG 可以通过公式计算。
OSD(Object Storage Daemon,对象存储设备):每一块磁盘都是一个osd,一个主机由一个或多个osd 组成.

ceph 集群部署好之后,要先创建存储池才能向ceph 写入数据,文件在向ceph 保存之前要先进行一致性hash 计算,计算后会把文件保存在某个对应的PG 的,此文件一定属于某个pool的一个PG,在通过PG 保存在OSD 上。
数据对象在写到主OSD 之后再同步对从OSD 以实现数据的高可用。
在这里插入图片描述
注:存储文件过程:
第一步: 计算文件到对象的映射:

计算文件到对象的映射,假如file 为客户端要读写的文件,得到oid(object id) = ino + ono
ino:inode number (INO),File 的元数据序列号,File 的唯一id。
ono:object number (ONO),File 切分产生的某个object 的序号,默认以4M 切分一个块大小

第二步:通过hash 算法计算出文件对应的pool 中的PG:

通过一致性HASH 计算Object 到PG, Object -> PG 映射hash(oid) & m
举报

相关推荐

0 条评论