大家好,我是考100分的小小码 ,祝大家学习进步,加薪顺利呀。今天说一说php分布式存储_centos共享文件夹,希望您对编程的造诣更进一步.
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-4K2Fgbxf-1580288167241)(http://i.imgur.com/vhdeDvX.png)]
前言
哈喽大家好呀! 这次给大家带来的Liunx软件分享是鼎鼎大名的Ceph分布式文件系统,笔者了解到Ceph也是遇到了一个问题就是在使用Kubeneters的时候在各个容器中都需要使用同一套文件,但是使用NAS盘的方式不管是更新还是读取都要忍受2分钟之久而且还会出现文件占用失败的问题,笔者找了找现有和Kuberneters结合比较好的文件系统才发现Ceph,那么就开始进行Ceph的搭建和使用吧
附上:
喵了个咪的博客:w-blog.cn
Ceph官网 :ceph.com/
1. 环境准备
首先需要3台服务器来做集群,ceph默认会进行文件三份的冗余来保障文件不易丢失,服务器IP地址如下:
PS:这里使用的是Centos7的系统版本
192.168.3.101 ceph-1
192.168.3.102 ceph-2
192.168.3.103 ceph-3
这里使用docker的方式进行安装不会应为安装过程污染环境方便删除重试:
yum install -y yum-utils device-mapper-persistent-data lvm2
yum-config-manager --add-repo https://download.docker.com/linux/centos/docker-ce.repo
yum install -y docker-ce
需要配置好国内docker源来提高速度并且配置好开启自启(需要使用自己的阿里云账号获取加速地址)
sudo mkdir -p /etc/docker
sudo tee /etc/docker/daemon.json <<-'EOF'
{
"registry-mirrors": ["https://xxxxxxxx.mirror.aliyuncs.com"]
}
EOF
sudo systemctl daemon-reload
sudo systemctl restart docker
sudo systemctl enable docker
2. 集群部署
在各个节点上拉取需要使用到的Docker镜像
docker pull ceph/daemon
在node1节点上运行 mon
docker run -d \
--name=mon \
--net=host \
-v /etc/ceph:/etc/ceph \
-v /var/lib/ceph/:/var/lib/ceph/ \
-e MON_IP=192.168.3.101 \
-e CEPH_PUBLIC_NETWORK=192.168.3.0/24 \
ceph/daemon mon
查看docker运行状态,并且执行命令查看ceph的集群情况
[root@ceph-1 ~]# docker ps
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
b0c9d7680461 ceph/daemon "/entrypoint.sh mon" About a minute ago Up About a minute mon
[root@ceph-1 ~]# docker exec mon ceph -s
cluster:
id: da8f7f5b-b767-4420-a510-287f4ced25de
health: HEALTH_OK
services:
mon: 1 daemons, quorum ceph-1
mgr: no daemons active
osd: 0 osds: 0 up, 0 in
data:
pools: 0 pools, 0 pgs
objects: 0 objects, 0 B
usage: 0 B used, 0 B / 0 B avail
pgs:
虽然我们没有映射端口,Ceph容器会把后续需要使用到的端口映射出来
[root@ceph-1 ~]# yum install tcping
[root@ceph-1 ~]# tcping 192.168.3.101 6789
192.168.3.101 port 6789 open
Ceph有两种方式在各个节点之间共享配置,一种是文件的方式需要吧第一个启动起来的节点的文件CP到其他节点,另外一种是使用配置服务(比如etcd或者consul)这里使用的文件的方式存放公共配置问题复制配置文件将 node1 上的配置文件复制到 node02 和 node03,复制的路径包含/etc/ceph和/var/lib/ceph/bootstrap-*下的所有内容。
ssh root@192.168.3.102 mkdir -p /var/lib/ceph
scp -r /etc/ceph root@192.168.3.102:/etc
scp -r /var/lib/ceph/bootstrap* root@192.168.3.102:/var/lib/ceph
ssh root@192.168.3.103 mkdir -p /var/lib/ceph
scp -r /etc/ceph root@192.168.3.103:/etc
scp -r /var/lib/ceph/bootstrap* root@192.168.3.103:/var/lib/ceph
启动第二个和第三个 mon在 node02 上执行以下命令启动 mon,注意修改 MON_IP
docker run -d \
--net=host \
--name=mon \
-v /etc/ceph:/etc/ceph \
-v /var/lib/ceph/:/var/lib/ceph/ \
-e MON_IP=192.168.3.102 \
-e CEPH_PUBLIC_NETWORK=192.168.3.0/24 \
ceph/daemon mon
在 node03 上执行以下命令启动 mon,注意修改 MON_IP
docker run -d \
--net=host \
--name=mon \
-v /etc/ceph:/etc/ceph \
-v /var/lib/ceph/:/var/lib/ceph/ \
-e MON_IP=192.168.3.103 \
-e CEPH_PUBLIC_NETWORK=192.168.3.0/24 \
ceph/daemon mon
在任意节点上在查看ceph集群状态可以看到有三个mos上线了
[root@ceph-1 ~]# docker exec mon ceph -s
cluster:
id: da8f7f5b-b767-4420-a510-287f4ced25de
health: HEALTH_OK
services:
mon: 3 daemons, quorum ceph-1,ceph-2,ceph-3
mgr: no daemons active
osd: 0 osds: 0 up, 0 in
data:
pools: 0 pools, 0 pgs
objects: 0 objects, 0 B
usage: 0 B used, 0 B / 0 B avail
pgs:
接着就需要运行osd服务把某个磁盘给ceph作为文件共享系统的基础存储,所以我们需要为三台服务器挂载对应的磁盘(笔者这里使用的是阿里云的云服务器,这里挂载了100GB的SSD)
[root@ceph-1 ~]# fdisk -l
Disk /dev/vda: 42.9 GB, 42949672960 bytes, 83886080 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk label type: dos
Disk identifier: 0x0008d73a
Device Boot Start End Blocks Id System
/dev/vda1 * 2048 83884031 41940992 83 Linux
Disk /dev/vdb: 107.4 GB, 107374182400 bytes, 209715200 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
三台机器分别运行(如果需要挂载多块可以运行多个osd即可)
docker run -d \
--net=host \
--name=osd \
-v /etc/ceph:/etc/ceph \
-v /var/lib/ceph/:/var/lib/ceph/ \
-v /dev/:/dev/ \
--privileged=true \
-e OSD_FORCE_ZAP=1 \
-e OSD_DEVICE=/dev/vdb \
ceph/daemon osd_ceph_disk
我们再次查看发现osd3个节点已经上线了
[root@ceph-1 ~]# docker exec mon ceph -s
cluster:
id: da8f7f5b-b767-4420-a510-287f4ced25de
health: HEALTH_WARN
no active mgr
services:
mon: 3 daemons, quorum ceph-1,ceph-2,ceph-3
mgr: no daemons active
osd: 3 osds: 3 up, 3 in
data:
pools: 0 pools, 0 pgs
objects: 0 objects, 0 B
usage: 0 B used, 0 B / 0 B avail
pgs:
但是我们并看不到有存储空间,主要是mgr没有启动,我们把mds和rgw也一起跑起来在node1节点上:
docker run -d \
--net=host \
--name=mgr \
-v /etc/ceph:/etc/ceph \
-v /var/lib/ceph/:/var/lib/ceph/ \
ceph/daemon mgr
docker run -d \
--net=host \
--name=mds \
-v /etc/ceph:/etc/ceph \
-v /var/lib/ceph/:/var/lib/ceph/ \
-e CEPHFS_CREATE=1 \
ceph/daemon mds
docker run -d \
--name=rgw \
-p 80:80 \
-v /etc/ceph:/etc/ceph \
-v /var/lib/ceph/:/var/lib/ceph/ \
ceph/daemon rgw
初始化完成
[root@ceph-1 ~]# docker exec mon ceph -s
cluster:
id: da8f7f5b-b767-4420-a510-287f4ced25de
health: HEALTH_OK
services:
mon: 3 daemons, quorum ceph-1,ceph-2,ceph-3
mgr: ceph-1(active)
mds: cephfs-1/1/1 up {0=ceph-1=up:active}
osd: 3 osds: 3 up, 3 in
rgw: 1 daemon active
data:
pools: 6 pools, 48 pgs
objects: 209 objects, 3.4 KiB
usage: 6.0 GiB used, 292 GiB / 298 GiB avail
pgs: 48 active+clean
3. 简单使用和性能
可以使用ceph挂载磁盘进行使用,但是ceph有很强的用户校验机制所以需要先拿到访问key ,并且在使用过程中可以指定多个节点这就形成了负载均衡用内核驱动挂载 Ceph 文件系统 — Ceph Documentation
mkdir /mnt/mycephfs
[root@ceph-1 ~]# cat /etc/ceph/ceph.client.admin.keyring
[client.admin]
key = AQBXv0VbKtikExAAwHHp+F2HJSnYIIqaozjt3g==
auid = 0
caps mds = "allow"
caps mgr = "allow *"
caps mon = "allow *"
caps osd = "allow *"
mount -t ceph 192.168.3.101,192.168.3.102,192.168.3.103:/ /mnt/mycephfs -o name=admin,secret=AQBhlz1bZBHcLxAAt6eIyBxnAxFoyA7PDTqAkQ==
umount /mnt/mycephfs
[root@ceph-1 ~]# lsof /mnt/mycephfs
COMMAND PID USER FD TYPE DEVICE SIZE/OFF NODE NAME
bash 10486 root cwd DIR 0,0 2 1099511627781 /mnt/mycephfs/data/dev/code
这样只是最简单的使用,还有关于rdb对象存储以及Ceph还有快照功能
如果大家没有搞定也可以先试试官方也提供整合好的demo 不需要开这么多组件才能使用,只需要以下命令即可:
docker run -d \
--net=host \
-v /etc/ceph:/etc/ceph \
-e MON_IP=172.16.0.13 \
-e CEPH_PUBLIC_NETWORK=172.16.0.0/24 \
ceph/demo
在搭建好整个集群之后进行测试文件速度(这里主要测试的是5000多个小文件拷贝速度)如下:
# NAS盘
/app # time cp -rf php/ general/test
real 2m 7.05s
user 0m 0.13s
sys 0m 1.80s
# CEPH
/app # time cp -rf php/ generalceph/test
real 0m 6.88s
user 0m 0.05s
sys 0m 0.39s
# 本地磁盘
/app # time cp -rf php/ php2
real 0m 1.16s
user 0m 0.02s
sys 0m 0.21s
大家可以看到CEPH的速度对于NAS盘提升不是一点两点是质的提升,面对本地磁盘差距也没有到不能接受的情况
4. Kubernetes使用
笔者的最终目的是在K8S中可以使用ceph作为高速共享盘,那么就需要借助K8S支持的cephFS文件挂载,具体对应的编排如下
因为使用ceph需要密码所以我们先创建一个secret
apiVersion: v1
kind: Secret
metadata:
name: ceph-secret
namespace: dev
data:
key: QVFCMTZWMVZvRjVtRXhBQTVrQ1FzN2JCajhWVUxSdzI2Qzg0SEE9PQ==
最后创建我们需要的volume挂载卷就可以在POD中正常使用了
apiVersion: v1
kind: PersistentVolume
metadata:
name: cephfs-pv
spec:
capacity:
storage: 200Gi
accessModes:
- ReadWriteMany
cephfs:
monitors:
- 192.168.3.101:6789
- 192.168.3.102:6789
- 192.168.3.103:6789
user: admin
secretRef:
name: ceph-secret
readOnly: false
storageClassName: ceph
persistentVolumeReclaimPolicy: Recycle
---
kind: PersistentVolumeClaim
apiVersion: v1
metadata:
name: cephfs-pv-claim
spec:
accessModes:
- ReadWriteMany
resources:
requests:
storage: 100Gi
storageClassName: ceph
5. 小技巧
被ceph占用的磁盘会自己划分分区,无法在被二次使用了,如果需要重新初始化可以使用命令对磁盘进行全盘格式
[root@ceph-1 ~]# fdisk -l
Disk /dev/vda: 42.9 GB, 42949672960 bytes, 83886080 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk label type: dos
Disk identifier: 0x0008d73a
Device Boot Start End Blocks Id System
/dev/vda1 * 2048 83884031 41940992 83 Linux
WARNING: fdisk GPT support is currently new, and therefore in an experimental phase. Use at your own discretion.
Disk /dev/vdb: 107.4 GB, 107374182400 bytes, 209715200 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk label type: gpt
Disk identifier: 17E24D34-44A5-46BB-8753-A882133156FF
# Start End Size Type Name
1 2048 206847 100M unknown ceph data
2 3483648 209715166 98.3G unknown ceph block
3 206848 2303999 1G unknown ceph block.db
4 2304000 3483647 576M unknown ceph block.wal
如果需要重新部署需要先,清理磁盘可以通过以下命名进行格式化
docker run -d --privileged=true -v /dev/:/dev/ -e OSD_DEVICE=/dev/vdb ceph/daemon zap_device
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。
转载请注明出处: https://daima100.com/13284.html