CentOS7下搭建Ceph(三)
Ceph用做存储,在客户机上挂载作为文件系统。
一.从主节点下在希望设置元数据的节点上创建元数据服务器。
*此时,在admin端输入创建命令
# ceph-deploy mds create node01
二.创建至少2个数据池对MDS元数据服务器节点和激活
# sudo chmod 644 /etc/ceph/ceph.client.admin.keyring
*创建数据池
# ceph osd pool create cephfs_data 128
pool 'cephfs_data' created
# ceph osd pool create cephfs_metadata 128
pool 'cephfs_metadata' created
*启动池
# ceph fs new cephfs cephfs_metadata cephfs_data
new fs with metadata pool 2 and data pool 1
*显示列表
# ceph fs ls
name: cephfs, metadata pool: cephfs_metadata, data pools: [cephfs_data ]
# ceph mds stat
e5: 1/1/1 up {0=node01=up:active}
三.在客户端上安装ceph文件系统
# yum -y install ceph-fuse
* 获取主节点上的密钥
# ssh cent@192.168.1.78"sudo ceph-authtool -p /etc/ceph/ceph.client.admin.keyring" > admin.key
cent@192.168.1.78's password:
# chmod 600 admin.key
# mount -t ceph 192.168.1.78:6789:/ /mnt -o name=admin,secretfile=admin.key
# df -hT
文件系统 类型 容量 已用 可用 已用% 挂载点
/dev/mapper/cl-root xfs 6.2G 1.3G 5.0G 21% /
devtmpfs devtmpfs 486M 0 486M 0% /dev
tmpfs tmpfs 497M 0 497M 0% /dev/shm
tmpfs tmpfs 497M 13M 484M 3% /run
tmpfs tmpfs 497M 0 497M 0% /sys/fs/cgroup
/dev/sda1 xfs 1014M 138M 877M 14% /boot
tmpfs tmpfs 100M 0 100M 0% /run/user/0
192.168.1.78:6789:/ ceph 30G 3.2G 27G 11% /mnt