码迷,mamicode.com
首页 > 其他好文 > 详细

06 CephFS文件存储

时间:2020-07-06 19:34:47      阅读:50      评论:0      收藏:0      [点我收藏+]

标签:挂载   world   inux   -name   log   创建   mod   serve   场景   

参考连接:<https://docs.ceph.com/docs/master/install/ceph-deploy/quick-cephfs/>;

1 CephFS介绍

1.1 CephFS概念

? Ceph File System (CephFS) 是与 POSIX 标准兼容的文件系统, 能够提供对 Ceph 存储集群上的文件访问.Jewel 版本 (10.2.0) 是第一个包含稳定 CephFS 的 Ceph 版本.

? CephFS 需要至少一个元数据服务器 (Metadata Server - MDS) daemon (ceph-mds) 运行, MDS daemon 管理着与存储在 CephFS 上的文件相关的元数据, 并且协调着对 Ceph 存储系统的访问。

技术图片

1.2 CephFS架构

底层是核心集群所依赖的, 包括:

  • OSDs (ceph-osd): CephFS 的数据和元数据就存储在 OSDs 上
  • MDS (ceph-mds): Metadata Servers, 管理着 CephFS 的元数据
  • Mons (ceph-mon): Monitors 管理着集群 Map 的主副本 Ceph 存储集群的协议层是 Ceph 原生的 librados 库, 与核心集群交互.

技术图片

? CephFS 库层包括 CephFS 库 libcephfs, 工作在 librados 的顶层, 代表着 Ceph 文件系统.最上层是能够访问 Ceph 文件系统的两类客户端.

1.3 适用场景

  • 共享目录(在多个服务器之间共享目录)
  • 分布式工作流

2 CephFS配置

2.1 配置CephFS MDS

? 要使用 CephFS, 至少就需要一个 metadata server 进程。可以手动创建一个 MDS, 也可以使用 ceph-deploy 或者 ceph-ansible 来部署 MDS。

1)安装MDS

登陆到cephuser的工作目录

# 可以指定多个hostname组成集群
[cephuser@cephmanager01 cephcluster]$ ceph-deploy mds create cephmanager01 cephmanager02 cephmanager03
# 各个节点确认进程是否依据启动
[cephuser@cephmanager01 cephcluster]$ sudo ps -aux |grep mds
# 查看mds状态
[cephuser@cephmanager01 cephcluster]$ sudo ceph mds stat
# 确认个节点日志是否有错
[cephuser@cephmanager01 cephcluster]$ sudo tail -100f /var/log/ceph/ceph-mds.cephmanager01.log

技术图片

注意:由于没有文件系统,所有三个mds均是standy状态

2.2 部署CephFS

1)CephFS 需要两个 Pools - cephfs-data 和 cephfs-metadata, 分别存储文件数据和文件元数据

[cephuser@cephmanager01 cephcluster]$ sudo ceph osd pool create cephfs-data 16 16
[cephuser@cephmanager01 cephcluster]$ sudo ceph osd pool create cephfs-metadata 16 16
#查看pool信息,确实是否创建成功
[cephuser@cephmanager01 cephcluster]$ sudo ceph osd lspools

? 注:一般 metadata pool 可以从相对较少的 PGs 启动, 之后可以根据需要增加 PGs. 因为 metadata pool 存储着 CephFS 文件的元数据, 为了保证安全, 最好有较多的副本数. 为了能有较低的延迟, 可以考虑将 metadata 存储在 SSDs 上.

2)创建一个 CephFS, 名字为 cephfs:

[cephuser@cephmanager01 cephcluster]$ sudo ceph fs new cephfs cephfs-metadata cephfs-data
#查看确认
[cephuser@cephmanager01 cephcluster]$ sudo ceph fs ls

3)验证至少有一个 MDS 已经进入 Active 状态

[cephuser@cephmanager01 cephcluster]$ sudo ceph fs status cephfs
[cephuser@cephmanager01 cephcluster]$ sudo ceph -s

技术图片

2.3 创建认证用户

1)创建一个用户,用于访问CephFS

[cephuser@cephmanager01 cephcluster]$ sudo ceph auth get-or-create client.cephfs mon ‘allow r‘ mds ‘allow rw‘ osd ‘allow rw pool=cephfs-data, allow rw pool=cephfs-metadata‘

2) 验证key是否生效

[cephuser@cephmanager01 cephcluster]$ sudo ceph auth get client.cephfs

3 CephFS使用

3.1以 kernel client 形式挂载 CephFS

确保在Linux内核2.6.34和以后的版本中

1)创建挂载点

[root@localhost ~]# mkdir /cephfs

2) 挂载目录

# 如果有多个mon,可以列出多个,以","隔开
[root@localhost ~]# mount -t ceph 192.168.10.51:6789:/ /cephfs/ -o name=cephfs,secret=AQDB7f5eZ9bpDxAA65iULAt2OARmKJXwwLc8GQ==

备注:centos7及以上版本支持目录类型ceph

3) 验证是否挂载成功

[root@localhost ~]# df -h
#挂载空间的大小登陆所有ceph剩余空间的大小,可以通过ceph df确认
[root@localhost ~]# stat -f /cephfs

4)查看加载内核情况

[root@localhost ~]# lsmod |grep ceph

技术图片

5) 设置自动挂载

[root@localhost ~]# echo "ceph 192.168.10.51:6789:/ /cephfs ceph name=cephfs,secretfile=/etc/ecph/cephfskey,_netdev,noatime 0 0" >> /etc/fstab

3.2以 FUSE client 形式挂载 CephFS

采用内核的形式挂载性能相对较高,对于内核不满足要求的,可以采用FUSE

1)创建挂载点

[root@localhost ceph]# mkdir /ceph-fuse

2)安装ceph-common和ceph-fuse

[root@localhost ~]# yum install -y ceph-common
[root@localhost ~]# yum install -y ceph-fuse

3)将服务器端集群的ceph.conf和拷贝到客户端(这样就把客户端和集群关联起来了)

[root@cephmanager01 cephcluster]# scp ceph.conf root@192.168.10.57:/etc/ceph/

4)编辑认证文件

将服务器端ceph auth get client.cephfs的内容复制到客户端/etc/ceph/ceph.client.cephfs.keyring,并删掉exported keyring for client.cephfs

[root@localhost ceph]# vim /etc/ceph/ceph.client.cephfs.keyring

[client.cephfs]
        key = AQDB7f5eZ9bpDxAA65iULAt2OARmKJXwwLc8GQ==
        caps mds = "allow rw"
        caps mon = "allow r"
        caps osd = "allow rw pool=cephfs-data, allow rw pool=cephfs-metadata"

5) 使用 ceph-fuse 挂载 CephFS

# 指定了多个mon,认证应用认证文件(注意权限和ceph.conf一致)
[root@localhost ceph]# ceph-fuse --keyring  /etc/ceph/ceph.client.cephfs.keyring  --name client.cephfs -m 192.168.10.51:6789,192.168.10.72:6789,192.168.10.75:6789  /ceph-fuse

6) 验证 CephFS 已经成功挂载

[root@localhost ceph]# stat -f /ceph-fuse
[root@localhost ceph]# df -h

技术图片
7)写入文件进行测试

[root@localhost ceph-fuse]# echo "hello world" > /ceph-fuse/fuse.txt
[root@localhost ceph-fuse]# cat /ceph-fuse/fuse.txt

8) 自动挂载

[root@localhost ceph-fuse]# echo "id=cephfs,keyring=/etc/ceph/ceph.client.cephfs.keyring /ceph-fuse fuse.ceph defaults 0 0 _netdev" >> /etc/fstab

9) 卸载

[root@localhost ~]# fusermount -u /ceph-fuse/

06 CephFS文件存储

标签:挂载   world   inux   -name   log   创建   mod   serve   场景   

原文地址:https://blog.51cto.com/14758677/2509006

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!