ceph集群添加了一个osd之后,该osd的状态始终为down。
分类:
其他好文 时间:
2018-09-10 19:44:36
阅读次数:
2198
Crush算法1、Crush的目的 优化分配数据,高效的重组数据,灵活的约束对象副本放置,硬件故障时候最大化保证数据安全 2、流程 Ceph 架构中,Ceph客户端是直接读写存放在OSD上的RADOS Object,因此,Ceph需要走完(Pool, Object) → (Pool, PG) → O ...
分类:
编程语言 时间:
2018-08-25 11:33:32
阅读次数:
236
什么FAT,NTFS,NFS,DAS,SAN,NAS,OSD这些名词我一个都不认识。 不知道各位大佬对上面的名词了解多少,通过上面的一些名词其实可以大致的看到存储是怎样一步步发展的。其中FAT,NTFS和NFS都是支持特定存储协议的存储系统,DAS,SAN,NAS,OSD是一种存储模型。稍微科普一下 ...
分类:
其他好文 时间:
2018-08-22 00:23:22
阅读次数:
165
一、Ceph整体架构及RGW在Ceph中的位置 1.Ceph的整体架构 Ceph是一个统一的、分布式的的存储系统,具有优秀的性能、可靠性和可扩展性。Ceph支持对象存储、块存储和文件存储。一个Ceph存储集群至少包含一个Ceph monitor、Ceph manager及Ceph OSD(Objec ...
分类:
其他好文 时间:
2018-08-08 21:25:22
阅读次数:
681
1. 创建存储池[root@ceph1 ~]# ceph osd pool create libvirt-pool 128 128查看刚刚创建的存储池:[root@ceph1 ~]# ceph osd lspools0 rbd,1 .rgw.root,2 default.rgw.control,3 default.rgw.meta,4 default
分类:
其他好文 时间:
2018-07-18 11:49:21
阅读次数:
289
1.编辑网卡的配置文件 vi /etc/sysconfig/network-scripts/ifcfg-ens33 将里面的NAME和DEVICE项修改为eth0,ONBOOT修改为yes。 2.重命名网卡配置文件ifcfg-ens33为ifcfg-eth0。 cd /etc/sysconfig/n ...
分类:
系统相关 时间:
2018-07-14 20:05:00
阅读次数:
226
为了达到不同的pool可以使用不同类型的硬盘组成的存储池,对于只是需要解决存储分级的小规模集群场景来说,先使用kolla进行统一部署ceph,在部署完成之后,然后通过手动调整ceph crush存储规则,新建rule,将相应的osd划入对应的rule,最后将相应的pool调整到相应的rule。这里我们就这个想法进行实际验证。
分类:
其他好文 时间:
2018-07-11 17:52:51
阅读次数:
363
CEPH简介ceph提供:对象存储,块设备,文件系统。Ceph存储集群至少需要一个CephMonitor,CephManager和CephOSD(对象存储守护进程)。运行CephFilesystem客户端时也需要Ceph元数据服务器。Monitors:ceph-mon维护集群状态的映射,管理守护进程和客户端之间的身份验证,高可用至少需要3个Monitors节点Managers:ceph-mgrCe
分类:
其他好文 时间:
2018-07-09 15:20:04
阅读次数:
406
1.一个现成的ceph cluster 参考之前写的ceph-deploy 部署ceph cluster 2.配置client与ceph cluster对接 在ceph cluster的管理节点上安装配置ceph client 3..在ceph client上创建使用rbd ...
分类:
其他好文 时间:
2018-07-09 15:19:03
阅读次数:
182
ceph是分布式存储,其中对于数据的存储规则是一个重点和难点。比如每个数据块的数据备份是3份,3份数据是怎么分布的?ceph的crush 就是解决数据分布规则的问题。 应用端直接使用的是pool,pool是由存储的基本单位pg组成,pg分布在磁盘逻辑单元osd上,osd一般是对应一块物理硬盘,osd分布在
分类:
其他好文 时间:
2018-07-09 12:28:13
阅读次数:
2313