• Ceph删除/添加故障OSD(ceph-deploy)

    时间:2022-06-01 19:45:35

    今天osd.5起不来,发现是硬盘的问题[root@ceph-osd-1ceph-cluster]#cephosdtree#idweighttypenameup/downreweight-111.63rootdefault-25.26hostceph-osd-105.26osd.0up1-32.73h...

  • ceph 添加/删除OSD(ceph.conf)

    时间:2022-03-04 03:33:18

       之前有篇Blog记录的是通过ceph-deploy进行osd的添加以及删除操作,这里记录的是通过ceph源码安装后,通过配置ceph配置文件,而进行ceph的osd的添加以及删除操作。操作环境ceph0.80.7Centos6.5x86_64OpenstackIcehouse现有ceph.co...

  • Ceph删除/添加故障OSD(ceph-deploy)

    时间:2022-03-04 03:33:30

    今天osd.5起不来,发现是硬盘的问题[root@ceph-osd-1ceph-cluster]#cephosdtree#idweighttypenameup/downreweight-111.63rootdefault-25.26hostceph-osd-105.26osd.0up1-32.73h...

  • 分布式存储ceph——(4)ceph 添加/删除osd

    时间:2022-01-24 02:23:02

    一、添加osd:当前ceph集群中有如下osd,现在准备新添加osd:(1)选择一个osd节点,添加好新的硬盘:(2)显示osd节点中的硬盘,并重置新的osd硬盘:列出节点磁盘:ceph-deploydisklistrab1擦净节点磁盘:ceph-deploydiskzaprab1/dev/sbd(...

  • Ceph删除一个OSD

    时间:2022-01-01 02:26:15

    CentOS7环境下的Ceph,删除一个OSD步骤:1、把OSD踢出集群(管理节点上执行)[dgb@ceph-admin~]$cephosdout6删除OSD前,它通常是up且in的,要先把它踢出集群,以使Ceph启动重新均衡、把数据拷贝到其他OSD2、观察数据迁移(管理节点上查看)[dgb@cep...

  • Ceph添加、删除osd及故障硬盘更换

    时间:2021-10-26 03:29:00

    添加或删除osd均在ceph部署节点的cent用户下的ceph目录进行。1.添加osd当前ceph集群中有如下osd,现在准备新添加osd:(1)选择一个osd节点,添加好新的硬盘:(2)显示osd节点中的硬盘,并重置新的osd硬盘:列出节点磁盘:ceph-deploydisklistrab1擦净节...

  • Ceph删除/添加故障OSD(ceph-deploy)

    时间:2021-10-26 03:28:48

    今天osd.5起不来,发现是硬盘的问题[root@ceph-osd-1ceph-cluster]#cephosdtree#idweighttypenameup/downreweight-111.63rootdefault-25.26hostceph-osd-105.26osd.0up1-32.73h...

  • ceph 添加/删除OSD(ceph.conf)

    时间:2021-09-18 01:30:46

       之前有篇Blog记录的是通过ceph-deploy进行osd的添加以及删除操作,这里记录的是通过ceph源码安装后,通过配置ceph配置文件,而进行ceph的osd的添加以及删除操作。操作环境ceph0.80.7Centos6.5x86_64OpenstackIcehouse现有ceph.co...

  • Ceph添加、删除osd及故障硬盘更换

    时间:2021-09-18 01:30:40

    添加或删除osd均在ceph部署节点的cent用户下的ceph目录进行。1.添加osd当前ceph集群中有如下osd,现在准备新添加osd:(1)选择一个osd节点,添加好新的硬盘:(2)显示osd节点中的硬盘,并重置新的osd硬盘:列出节点磁盘:ceph-deploydisklistrab1擦净节...

  • Ceph删除/添加故障OSD(ceph-deploy)

    时间:2021-07-12 01:47:31

    今天osd.5起不来,发现是硬盘的问题[root@ceph-osd-1ceph-cluster]#cephosdtree#idweighttypenameup/downreweight-111.63rootdefault-25.26hostceph-osd-105.26osd.0up1-32.73h...