云原生 / 存储系统 / 操作系统

Ceph文件系统—CephFS部署教程

温馨提示:本文最后更新于2021-03-02 18:48:11,某些文章具有时效性,若有错误或已失效,请在下方留言或问题自助查询
当前位置: 首页 » 云原生 » Ceph文件系统—CephFS部署教程
浅时光博客 · 8月2日 · 2020年 · 本文2333个字,预计阅读6分钟 153479次已读

一、CephFS介绍


Ceph File System (CephFS) 是与 POSIX 标准兼容的文件系统, 能够提供对 Ceph 存储集群上的文件访问. Jewel 版本 (10.2.0) 是第一个包含稳定 CephFS 的 Ceph 版本. CephFS 需要至少一个元数据服务器 (Metadata Server – MDS) daemon (ceph-mds) 运行, MDS daemon 管理着与存储在 CephFS 上的文件相关的元数据, 并且协调着对 Ceph 存储系统的访问。

Ceph集群创建请阅读本篇文章:
文章来源(Source):浅时光博客

Ceph 存储集群部署

2020-7-12 3
  • 注意:你集群里必须有MDS,不然无法进行下面的操作

二、CephFS创建


  • 要使用 CephFS, 至少就需要一个 metad原文链接:https://www.dqzboy.comata server 进程;在admin节点通过以下命令进行创建
[root@ceph-admin ~]# su - cephu 
[cephu@ceph-admin ~]$ cd ~/my-cluster/
[cephu@ceph-admin my-cluster]$ ceph-deploy mds create ceph-node2
#无报错则创建完成

三、CephFS部署


1、部署流程

  1. 在一个 Mon文章来源(Source):https://www.dqzboy.com 节点上创建 Ceph 文件系统.
  2. 若使用 CephX 认证,需要创建一个访问 CephFS 的客户端
  3. 挂载 CephFS 到一个专用的节点,以 kernel client 形式挂载 CephFS

2、执行操作

2.1:创建文件系统

  • Mon节点我们三台Node上都创建了,我们在任一Mon节点进行创建;这里我在ceph-node1节点创建
  • CephFS 需要两个 Pools,cephfs-datacephfs-metadata, 分别存储文件数据和文件元数据
[root@ceph-node1 ~]# su - cephu
[cephu@ceph-node1 ~]$ sudo ceph osd pool create cephfs-data 128 128
pool 'cephfs-data' created

[cephu@ceph-node1 ~]$ sudo ceph osd pool create cephfs-metadata 64 64
pool 'cephfs-metadata' created

2.2:创建CephFS

  • 创建一个CephFS,名称为cephfs,还是在Mon节点操作
[cephu@ceph-node1 ~]$ sudo ceph fs new cephfs cephfs-metadata cephfs-data

new fs with metadata pool 2 and data pool 1

2.3:检查状态

[cephu@ceph-node1 ~]$ sudo ceph fs status cephfs
Ceph文件系统—CephFS部署教程-浅时光博客

2.4:创建用户

  • 在Mon节点创建一个用户,用于访问CephFS;且这个用户有读写的权限
[cephu@ceph-node1 ~]$ sudo ceph auth get-or-create client.cephfs mon 'allow r' mds 'allow rw' osd 'allow rw pool=cephfs-data, allow rw pool=cephfs-metadata'

[client.cephfs]
	key = AQDnTxVf/k2sFhAANbw0QbPuCa7dLCJBDQbr8A==

2.5:检查Key

  • 检查上面步骤生成的Key是否生效
[cephu@ceph-node1 ~]$ sudo ceph auth get client.cephfs

exported keyring for client.cephfs
[client.cephfs]
	key = AQDnTxVf/k2sFhAANbw0QbPuCa7dLCJBDQbr8A==
	caps mds = "allow rw"
	caps mon = "allow r"
	caps osd = "allow rw pool=cephfs-data, allow rw pool=cephfs-metadata"

2.6:检查CephFS和Mds状态

[cephu@ceph-node1 ~]$ sudo ceph mds stat
cephfs-1/1/1 up  {0=ceph-node2=up:active}

[cephu@ceph-node1 ~]$ sudo ceph fs ls
name: cephfs, metadata pool: cephfs-metadata, data pools: [cephfs-data ]

[cephu@ceph-node1 ~]$ sudo ceph fs status

四、CephFS挂载


  • Mon默然端口:tcp: 6789
  • 这里我们以 kernel client 的方式进行挂载,在文章来源(Source):浅时光博客客户端服务器进行挂载

1、创建挂载点

[root@ceph-client ~]# mkdir /cephfs

2、挂载目录

[root@ceph-client ~]# mount -t ceph 192.168.66.201:6789,192.168.66.202:6789,192.168.66.203:6789:/ /cephfs/ -o name=cephfs,secret=AQA+bhVfgv2nFRAAE1oYVGUOdjtqfsXlQS2nEw==
  • 参数说明
    • name:为使用cephfs存储的用原文链接:https://www.dqzboy.com
    • secret:为上面在mon节点创建的cephfs对应的用户秘钥

3、自动挂载

[root@ceph-client ~]# echo "192.168.66.201:6789,192.168.66.202:6789,192.168.66.203:6789:/ /cephfs ceph name=cephfs,secretfile=/etc/ceph/cephfs.key,_netdev,noatime 0 0" | sudo tee -a /etc/fstab

4、验证挂载

[root@ceph-client ~]# stat -f /cephfs
Ceph文件系统—CephFS部署教程-浅时光博客




关注本站官方微信公众号『精彩程序人生』

扫描左侧二维码关注我们的微信公众帐号,在微信公众帐号中回复【资料】获取IT技术文档。
关注博主不迷路~


本文作者:浅时光博客
原文链接:https://www.dqzboy.com/3506.html
版权声明:知识共享署名-相同方式共享 4.0 国际 (CC BY-NC-SA 4.0)协议进行许可,转载时请以超链接形式标明文章原始出处和作者信息
免责声明:本站发布的内容(图片、视频和文字)以及一切破解补丁、注册激活和软件解密分析文章仅限用于学习和研究目的;不得将上述内容用于商业或者非法用途,否则,一切后果请用户自负。访问和下载本站内容,说明您已同意上述条款!


1 条回应

必须 注册 为本站用户, 登录 后才可以发表评论!

  1. 大boss未知2020-8-16 · 16:37

    给博主点赞

本站已稳定运行: | 耗时 0.227 秒 | 查询 92 次 | 内存 11.30 MB