大家好,我是考100分的小小码 ,祝大家学习进步,加薪顺利呀。今天说一说小白系统安装教程_openstack容器化部署,希望您对编程的造诣更进一步.
作者:王志斌
编辑:钟华龙
本文来自社区小伙伴 王志斌 的投稿。从小白的角度,带你一步步实现将 RadonDB PostgreSQL 集群部署到 Kubernetes 上。文章分为上下两部分,第一部分将为大家演示如何搭建一套 Kubernetes 环境,包括详细的配置调优等。
什么是 RadonDB PostgreSQL Operator?
RadonDB PostgreSQL 是一款基于 PostgreSQL 使用 Operator 实现的数据库容器化项目。
- 被广泛应用于地理空间和移动领域
- 具备高可用、稳定性、数据完整性等性能
- 支持在线水平扩展
- 支持故障自动转移 ,提供 HA 功能
- 提供 PostgreSQL 常用参数接口,方便调整参数
- 提供 PostGIS 插件,具备存储、查询和修改空间关系的能力
- 提供实时监控、健康检查、日志自动清理等功能
RadonDB PostgreSQL Operator 可基于 KubeSphere、OpenShift、Rancher 等 Kubernetes 容器平台交付。可自动执行与运行 RadonDB PostgreSQL 集群有关的任务。
RadonDB PostgreSQL Operator基于 https://github.com/CrunchyData/postgres-operator 项目实现,进行了改进优化,后续会持续回馈给社区。
仓库地址:https://github.com/radondb/radondb-postgresql-operator
部署目标
目标:准备一套 Kubernetes 作为后续数据库部署环境。
主机名 | IP | 角色 | 备注 |
---|---|---|---|
master | 192.168.137.2 | kubernetes master | 去除污点 |
node1 | 192.168.137.3 | kubernetes node | |
node2 | 192.168.137.4 | kubernetes node |
配置操作系统
操作系统:CentOS 7
1、修改各自主机名并修改主机列表
#192.168.137.2
vi /etc/hostname
master
cat >> /etc/hosts << EOF
192.168.137.2 master
192.168.137.3 node1
192.168.137.4 node2
EOF
#192.168.137.3
vi /etc/hostname
node1
cat >> /etc/hosts << EOF
192.168.137.2 master
192.168.137.3 node1
192.168.137.4 node2
EOF
#192.168.137.4
vi /etc/hostname
node2
cat >> /etc/hosts << EOF
192.168.137.2 master
192.168.137.3 node1
192.168.137.4 node2
EOF
2、其他配置
关闭防火墙、关闭 SELinux、关闭 SWAP ,设置时间同步。
systemctl stop firewalld && systemctl disable firewalld
sed -i "s/enforcing/disabled/" /etc/selinux/config && setenforce 0
swapoff -a && sed -ri "s/.*swap.*/#&/" /etc/fstab
yum install ntpdate -y && ntpdate time.windows.com
3、配置内核参数
将桥接的 IPv4 流量传递到 iptables 的链。
cat > /etc/sysctl.d/k8s.conf <<EOF
net.bridge.bridge-nf-call-ip6tables = 1
net.bridge.bridge-nf-call-iptables = 1
EOF
sysctl --system
准备 Docker
1、 安装必要的一些系统工具
yum install -y yum-utils device-mapper-persistent-data lvm2
2、添加软件源信息
yum-config-manager --add-repo https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo
3、更新并安装 Docker-CE
yum makecache fast
yum -y install docker-ce
4、开启 Docker 服务
systemctl start docker && systemctl enable docker
# 可以通过修改 daemon 配置文件 /etc/docker/daemon.json 来使用加速器
mkdir -p /etc/docker
tee /etc/docker/daemon.json <<-"EOF"
{
"registry-mirrors": ["https://s2q9fn53.mirror.aliyuncs.com"]
}
EOF
systemctl daemon-reload && sudo systemctl restart docker
Kubernetes 准备
1、初始化
添加 Kubernetes 阿里云的 YUM 源。
cat <<EOF > /etc/yum.repos.d/kubernetes.repo
[kubernetes]
name=Kubernetes
baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64/
enabled=1
gpgcheck=1
repo_gpgcheck=0
gpgkey=https://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg https://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg
EOF
yum install kubectl-1.20.0 kubelet-1.20.0 kubeadm-1.20.0
&& systemctl enable kubelet && systemctl start kubelet
初始化集群。
#master
kubeadm init --kubernetes-version=1.20.0
--apiserver-advertise-address=192.168.137.2
--image-repository registry.aliyuncs.com/google_containers
--service-cidr=10.10.0.0/16 --pod-network-cidr=10.122.0.0/16
mkdir -p $HOME/.kube
cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
chown $(id -u):$(id -g) $HOME/.kube/config
其他节点加入集群。
kubeadm join 192.168.137.2:6443 --token scw8xm.x5y7fck1via4mwc2
--discovery-token-ca-cert-hash sha256:8944421887121b6a2ac32987d9d1c7786fe64316cebdf7a63b6048fba183cc67
2、部署 CNI 网络插件
安装 flannel 网络插件。
kubectl apply -f https://docs.projectcalico.org/manifests/calico.yaml
发送 admin.conf 到所有节点,可以在任何一个节点管理集群。
scp /etc/kubernetes/admin.conf root@node1:/etc/kubernetes/admin.conf
scp /etc/kubernetes/admin.conf root@node2:/etc/kubernetes/admin.conf
在 node 节点上加入环境变量。
echo "export KUBECONFIG=/etc/kubernetes/admin.conf" >> /etc/profile
source /etc/profile
执行完成以后可以在任意 node 节点上管理集群,查看节点是否正常。
kubectl get nodes
节点状态正常。
3、查看节点
[root@node2 images]# kubectl label node node1 node-role.kubernetes.io/worker=worker
node/node1 labeled
[root@node2 images]# kubectl label node node2 node-role.kubernetes.io/worker=worker
node/node2 labeled
4、创建默认 storageclass
vi sc.yml
kind: StorageClass
apiVersion: storage.k8s.io/v1
metadata:
name: fast-disks
provisioner: kubernetes.io/no-provisioner
volumeBindingMode: WaitForFirstConsumer
[root@master ~]# kubectl apply -f sc.yml
storageclass.storage.k8s.io/local-storage create
设置为默认。
kubectl patch storageclass fast-disks -p "{"metadata": {"annotations":{"storageclass.kubernetes.io/is-default-class":"true"}}}"
5、去除污点
添加 尽量不调度 PreferNoSchedule 。
kubectl taint nodes master node-role.kubernetes.io/master:PreferNoSchedule
去除污点 NoSchedule,最后一个 “-” 代表删除。
kubectl taint nodes master node-role.kubernetes.io/master:NoSchedule-
镜像的问题
RadonDB PostgreSQL Opeartor 的安装需要准备一些镜像,但编译镜像的步骤可以省略,社区已经在 dockerhub 已经构建好了 RadonDB PostgreSQL 所有依赖的镜像,直接使用即可。
至此,我们已经准备好了 Kuberentes 环境,下一期我们将带您进行 RadonDB PostgreSQL Operator 的部署。
作者简介:
王志斌,北京航空航天大学硕士,荣获PMP和NPDP专业认证,巨杉数据库认证讲师和PostgreSQL官方认证讲师,拥有PGCM、PCTP、SCDD、KCP、OBCA等相关认证。荣获工信部中国开源软件推进联盟PostgreSQL ACE以及PostgreSQL开源社区推动贡献奖,并参与编著《PostgreSQL高可用实战》。
致谢
RadonDB 开源社区向本文的投稿作者表示感谢!也期待更多的社区小伙伴的投稿~
原文地址:https://www.cnblogs.com/radondb/archive/2022/05/30/16326524.html
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。
转载请注明出处: https://daima100.com/5183.html