数据库
MySQL
ORACLE
占位哈哈
占位哈哈
占位哈哈
占位哈哈
占位哈哈
占位哈哈
占位哈哈
占位哈哈
Linux运维
中间件
shell脚本
占位哈哈
占位哈哈
占位哈哈
占位哈哈
占位哈哈
占位哈哈
占位哈哈
首页 动态 发帖 版块 我的
 退出
游客  
等级:
金豆:
经验:
首页  /  云计算  /  ceph分布式存储  /  正文

ceph分布式存储部署

  1183 
 1
 0

环境信息

主机名称

角色

IP地址

node1

mon、mgr、mds、rgw、ods

172.18.1.227

node2

mon、mgr、rgw、osd

172.18.1.228

node3

mon、mgr、rgw、osd

172.18.1.229

基础环境配置(三台都要配置)基本都是在部署机使用for循环来配置

  1. 为了部署方便,这里先配置部署机的/etc/hosts文件和每个节点的hostname

vi /etc/hosts

127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4
::1         localhost localhost.localdomain localhost6 localhost6.localdomain6
172.18.1.227 node1
172.18.1.228 node2
172.18.1.229 node3
node1配置hostname

hostnamectl set-hostname node1
node2配置hostname

hostnamectl set-hostname node2
node3配置hostname

hostnamectl set-hostname node3
2、创建ssh密钥和免密登陆

部署机创建ssh密钥文件

ssh-keygen
使用for循环拷贝密钥到各个节点,输入yes和root密码

for host in node{1..3};do ssh-copy-id $host;done
3、安全配置(关闭防火墙和selinux配置)这里使用for循环修改每一个节点

for host in node{1..3};do systemctl stop firewalld;systemctl disable firewalld;setenforce 0;sed -i '/SELINUX/s/enforcing/disabled/g' /etc/selinux/config;done
4、时间同步服务器ntp配置

for host in node{1..3};do yum install ntpdate -y;systemctl stop ntpdate;ntpdate cn.pool.ntp.org;done
5、配置yum源(epel、ceph)

下载epel源到每个节点中

for host in node{1..3};do ssh $host wget -O /etc/yum.repos.d/epel.repo http://mirrors.aliyun.com/repo/epel-7.repo;done
创建ceph源

cat >/etc/yum.repos.d/ceph.repo<<EOF
[Ceph]
name=Ceph packages for $basearch
baseurl=http://mirrors.aliyun.com/ceph/rpm-nautilus/el7/$basearch
enabled=1
gpgcheck=0
type=rpm-md

[Ceph-noarch]
name=Ceph noarch packages
baseurl=http://mirrors.aliyun.com/ceph/rpm-nautilus/el7/noarch
enabled=1
gpgcheck=0
type=rpm-md

[ceph-source]
name=Ceph source packages
baseurl=http://mirrors.aliyun.com/ceph/rpm-nautilus/el7/SRPMS
enabled=1
gpgcheck=0
type=rpm-md
EOF
不知道为啥,创建完没有$basearch,需要手动添加上

vi /etc/yum.repos.d/ceph.repo
baseurl=http://mirrors.aliyun.com/ceph/rpm-nautilus/el7/$basearch
分发ceph源到其他节点中

for host in node{1..3};do scp /etc/yum.repos.d/ceph.repo $host:/etc/yum.repos.d/;done
重新加载yum缓存

for host in node{1..3};do ssh $host yum makecache;done
6、部署机安装ceph-deploy

yum install ceph-deploy -y
7、节点安装ceph、ceph-radosgw,这里使用for循环一起安装

for host in node{1..3};do ssh $host yum install ceph ceph-radosgw;done
查看安装的版本

Image

查看安装的软件

Image

8、创建集群目录并创建mon节点

[root@node1 ~]# mkdir /cluster
[root@node1 ~]# cd /cluster/
[root@node1 cluster]# ceph-deploy new node1 node2 node3

查看集群配置文件

Image

9、初始化mon节点

[root@node1 cluster]# ceph-deploy mon create-initial
查看进程和监听

Image

10、分发密钥到所有mon节点中

[root@node1 cluster]# ceph-deploy admin node{1..3}

查看配置文件

Image

查看集群信息状态

Image

11、创建mgr

[root@node1 cluster]# ceph-deploy mgr create node{1..3}

查看mgr集群状态信息

Image
12、部署osd

[root@node1 cluster]# ceph-deploy osd create node1 --data /dev/sdb
[root@node1 cluster]# ceph-deploy osd create node1 --data /dev/sdc
[root@node1 cluster]# ceph-deploy osd create node2 --data /dev/sdb
[root@node1 cluster]# ceph-deploy osd create node2 --data /dev/sdc
[root@node1 cluster]# ceph-deploy osd create node3 --data /dev/sdb
[root@node1 cluster]# ceph-deploy osd create node3 --data /dev/sdc

执行完成之后查看状态

Image

13、创建rgw

[root@node1 cluster]# ceph-deploy rgw create node1 node2 node3

查看集群状态

Image

14、创建资源池

[root@node1 ~]# ceph osd pool create rbd 32 32 
pool 'rbd' created

创建rbd1为10G

[root@node1 ~]# rbd create --pool rbd --size 10 rbd1

查看rbd1

Image

查看副本数

[root@node1 ~]# ceph osd pool get rbd size
size: 3

创建文件系统

[root@node1 ~]# rbd feature disable rbd/rbd1 deep-flatten fast-diff object-map exclusive-lock
[root@node1 ~]# rbd map rbd/rbd1

查看文件系统

Image

然后下面就可以分区了,分区这里就不再多说了

ceph集群简单搭建到此结束

标签:
作者签名: 只有努力,才会有收获   楼主  2020-10-28 16:04:45
回复列表
you6581908
2F
此梦缘君
2020-10-30 14:09:26 0
厉害了呀
【评论】   
合作伙伴:
Powered by 运维术 8.4.13
© 2017-2024 模板 by 黑衣人
您的IP: 18.188.91.223 , 2024-11-21 14:27:34
Powered by 运维术 8.4.13
© 2017-2024 模板 by 黑衣人
(0) 分享
分享
取消
我的客服