首页 > 编程知识 正文

ceph原理,ceph社区

时间:2023-05-04 05:34:09 阅读:51730 作者:2873

ceph概述: ceph是一个统一的分布式文件系统,旨在提供卓越的性能、可靠性和可扩展性。 ceph集成现在可以提供文件系统、块存储和对象存储,并且可以动态扩展。 在国内一些公司的云环境中,ceph通常是openstack的唯一后端存储,以提高数据传输效率。

Ceph项目始于Sage正在攻读博士的工作,第一个成果于2004年公布。 之后,为开源社区做出了贡献。 经过几年的发展,现已得到众多云计算厂商的支持和广泛应用。 RedHat和OpenStack都与Ceph集成,支持虚拟机的镜像后端存储。

网站:

官网: https://ceph.com/官方文档: http://docs.ceph.com/docs/master/# ceph特点高性能:

摒弃了传统的集中式存储元数据寻址方法,采用CRUSH算法,数据分布均衡,并行度提高。 考虑到灾难恢复隔离,可以实现各类负荷的副本配置规则、机房间、机架感知等。 支持数千个存储节点的规模,支持TB到Pb的高可用性:

复制副本数量可以灵活控制,支持故障域隔离,数据完整性高,自动修复多个故障方案,从而消除单点故障,提高可扩展性

线性增长特征随去中心化扩展弹性节点的增长而丰富:

它支持三个存储接口:块存储、文件存储和对象存储,并支持多种语言驱动。 ceph APP应用程序ceph提供对象存储、块设备存储和文件系统存储。 一般来说,主要关心的是块存储。 它的块设备存储是可对接的(IaaS ),包括当前主流的IaaS运输平台软件,例如ceph核心组件,如OpenStack、CloudStack、Zstack和Eucalyptus

Monitors:监视器提供验证和日志记录服务,包括监视监视器节点的端到端信息,包括ceph群集ID、主机名和IP以及端口,同时维护群集状态的各种映射。 另外,保存当前的版本信息和最新的变更信息,通过“ceph mon”查看监视器地图。 (MDS )元数据服务器:存储: ceph元数据,主要存储ceph文件系统的元数据。 注意: ceph的块存储和对象存储不需要MDS操作系统(objectstoragedevice,OSD ) : 主要功能包括存储数据、复制数据、平衡数据、恢复数据等,包括与其他OSD进行心跳检查,并将一些更改报告给ceph监视器。 通常,一个硬盘与一个OSD对应,OSD管理硬盘的存储。 当然一个分区也可以成为一个OSD。

OSD附带的另一个概念是日志磁盘,一般在向Ceph集群写入数据时,首先向日志磁盘写入数据,然后每隔一定时间例如5秒将日志磁盘的数据刷新到文件系统RADOS (reliableautonomicdistributedobjectstore ) : RADOS是ceph存储群集的基础,rados中的存储节点称为OSD,在ceph中所有数据都是对象librados: librados库为APP应用程序提供访问接口,同时为块存储、对象存储和文件系统提供本机接口。 提供RADOSGW:网关接口和目标存储服务。 使用librgw和librados,允许APP应用程序连接到Ceph对象存储。 它还提供与S3和Swift兼容的rest风格的API接口。 RBD:台设备。 您可以自动优化配置、调整大小并将数据分散存储在多个OSD中。 CephFS: CephFS:Ceph文件系统、符合POSIX标准的文件系统和基于librados的本机接口封装。 ceph数据存储过程

无论使用何种存储方法(对象、块和文件系统),存储的数据都将分割为Object。 对象大小可以由管理员调整。 通常是2M或4M。 每个对象都有唯一的OID,由ino和ono生成。

ino )是文件的File ID,用于全局唯一识别各文件的ono )是片的编号file )用户需要访问并保存的数据object:RADOS的基本存储装置pg(placementgroup )是OSD :对象存储der vice的三次映射:

文件对象映射对象- pg映射、散列(oid )掩码- pgid pg-OSD映射、CRUSH算法

转载于:https://www.cn blogs.com/du-z/p/11338805.html

版权声明:该文观点仅代表作者本人。处理文章:请发送邮件至 三1五14八八95#扣扣.com 举报,一经查实,本站将立刻删除。