国内最全IT社区平台 联系我们 | 收藏本站
华晨云阿里云优惠2
您当前位置:首页 > 服务器 > 如何使用容器实现生产级别的MongoDB sharding集群的一键交付

如何使用容器实现生产级别的MongoDB sharding集群的一键交付

来源:程序员人生   发布时间:2016-07-11 08:57:26 阅读次数:2512次

作者介绍

魏世江
希云联合开创人、CTO,负责基于Docker的自动化服务管理平台的后端研发工作。善于Docker相干技术、PasS平台架构及企业自动化运维系统的设计及开发。创业之前在新浪SAE平台任技术经理,从09年SAE立项至13年下半年的4年多时间里,1直负责SAEPasS平台各种基于Web的服务管理系统的设计及开发,在DevOps方面积累了丰富的经验。Docker引擎代码贡献者,在Docker开源项目中代码贡献量全球排名50名左右。

开篇

Mongo在很早就支持了replication set和sharding集群。经过了这么多年的沉淀,Mongo集群的成熟度已非常稳定,被大量公司用到自己的生产环境下。如何使用容器技术来实现Mongo集群的1键式交付部署,屏蔽底层实现的细节,是很多人关心的话题。

本文将给大家介绍基于进程的容器技术实现Mongo sharding集群的1键部署,充分展现了容器的强大威力。

甚么是Mongo sharding集群

Mongo(mongodb.com)作为流行的文档数据库,有很多有趣的特性,比如内置failover、支持文件存储、支持mapreduce和可以在服务器端直接运行js脚本,固然我们今天最关心的是它内置的sharding功能。散布式系统的设计向来具有很高的挑战,在最近1些年,随着互联网的发展,散布式的实践逐渐开始得到推行和重视。

如果要深入了解Mongo sharding的原理,参考:

https://docs.mongodb.com/manual/sharding

集群编排计划

mongo集群触及到多个服务,包括:

  • configdb, sharding集群的中心配置,是1个replicaset集群,监听在27019端口
  • mongos, 作为sharding集群的访问和管理入口,监听在27017端口
  • mongo slices,数据分片节点
  • mongo replicaset,每一个数据分片是1个replicaset集群,用于保障没有单点,并提供自动failover能力
  • mongo express, mongodb的管理dashboard

拓扑图

本次部署,configdb3台,mongo数据节点12台,分成4个分片,每一个分片1主2从

00

首先准备mongo镜像

Mongo官方已提供了Mongo 3.2的镜像,可以用来作为Mongo集群的镜像.为了减少后续保护工作,我们尽量不构建自己的镜像。

下面我们依照mongo sharding官方的部署文档,1步步编排集群。

https://docs.mongodb.com/manual/tutorial/deploy-shard-cluster/

部署的顺序是:configdb -> mongos -> mongo-replicaset/mongo-slices -> mongo-express

部署mongo configdb

准备configdb的配置文件

# cat mongo-config.conf systemLog: verbosity: 0 operationProfiling: slowOpThresholdMs: 3000 processManagement: fork: false storage: dbPath: /data/db journal: enabled: true engine: wiredTiger replication: replSetName: {{.ReplSetName}} sharding: clusterRole: configsvr net: port: 27019

准备 configdb集群的初始化js脚本

# cat configdb-init.js {{ $s := service "mongo-configsvr" }} config = { _id : "{{.ReplSetName}}", members : [ {{range $c := $s.Containers }}{_id : {{$c.Seq}}, host: "{{$c.Domain}}:27019"},{{end}} ] } rs.initiate(config) rs.status()

开始编排configdb服务

第1步 创建模版

01

第2步 选择mongo镜像,指定cmd

02

第3步 设置容器参数,关联配置文件

03

第4步 健康检查策略

04

第5步 设置部署策略,默许部署容器数量

05

初始化configdb为replicaset集群

我们通过添加1个one-off的服务configsvr-init,该服务履行初始化动作后将会自动退出

第1步 选择mongo镜像,指定cmd

11

第2步 设置容器参数,关联js脚本

12

第3步 设置部署策略,优先级数字设为11(configdb优先级10)

13

至此,configdb的编排算是完成了。我们接下来编排mongos服务

准备mongos配置文件

# cat mongos.conf replication: localPingThresholdMs: 2000 {{ $port := .CfgPort }} {{$s := service "mongo-configsvr"}} sharding: configDB: {{.ReplSetName}}/{{range $i,$c := $s.Containers}}{{if ne $i 0}},{{end}}{{$c.Domain}}:{{$port}}{{end}}

mongo的配置文件我们1般放到/etc/下

编排mongos模版

第1步 选择镜像,指定cmd参数

21

注意cmd里履行的是mongos

第2步 设置容器参数,关联mongos配置

22

第3步 健康检查

23

第4步 设置部署策略,注意优先级

24

mongos必须在configdb集群初始化后运行, 接下来我们开始编排mongo的数据节点服务,这是集群中最复杂的部份

准备shard节点的配置文件

cat mongo-shard.conf systemLog: verbosity: 0 operationProfiling: slowOpThresholdMs: 3000 processManagement: fork: false storage: dbPath: /data/db journal: enabled: true engine: wiredTiger {{ $num := (parseInt .REPLICA_NUM) |add 1 }} {{ $cn := (parseInt .Container.Seq) |subtract 1 }} {{ $rsn := $cn |divide $num }} replication: replSetName: RS{{$rsn}}

变量REPLICA_NUM表示每一个主有几个从,默许为2
这里将123个容器编为RS0,456编为RS1,789编为RS2,10,11,12编为RS3

编排mongo shard服务

第1步 添加mongo镜像,指定cmd参数

31

第2步 设置参数,关联配置

32

第3步 健康检查

33

第4步 设置部署

34

有了上面的数据节点后,我们发现,还没有初始化replset,也未将每一个replset加入到sharding里,下面我们来做shard初始化工作

初始化sharding集群

#!/bin/bash set -e {{$s := service "mongo"}} {{$n := (parseInt .REPLICA_NUM) |add 1}} {{$slices := $s.ContainerNum |divide $n}} {{$port := .Port}} echo begin to init replica set ... for i in {0..{{$slices |subtract 1}}}; do bn=$(( $i * {{$n}} + 1 )) en=$(( $bn + {{.REPLICA_NUM}} )) RS_NODE= RS_NODE_CONFIG= ii=$bn while [ $ii -le $en ]; do RS_NODE=$RS_NODE$ii.mongo.{{.Instance.Name}}.csphere.local:{{$port}}, RS_NODE_CONFIG=$RS_NODE_CONFIG"{_id:$ii, host: \"$ii.mongo.{{.Instance.Name}}.csphere.local:{{$port}}\"}," ii=$(($ii + 1)) done RS_NODES=$(echo $RS_NODE|sed 's/,$//') RS_NODES_CONFIG=$(echo $RS_NODE_CONFIG|sed 's/,$//') cat > /tmp/RS$i.js <<EOF config = { _id : "RS$i", members : [ $RS_NODES_CONFIG ] } rs.initiate(config) rs.status() EOF ## connect to 0.mongo/3.mongo... begin_mongo=$bn.mongo.{{.Instance.Name}}.csphere.local mongo $begin_mongo /tmp/RS$i.js sleep 3 j=0 while [ $j -lt 10 ]; do mongo $begin_mongo --eval "rs.status()" | grep PRIMARY && break j=$(($j + 1)) sleep 2 done if [ $j -eq 10 ]; then echo RS$i initianized failed exit 1 fi echo RS$i initinized ok echo begin to add RS$i to sharding ... mongo --eval "sh.addShard(\"RS${i}/$RS_NODES\")" 1.mongos.{{.Instance.Name}}.csphere.local done

上面的脚本略微有点复杂,基本逻辑就是,先初始化每一个replicaset集群RS0..RS3,并将每一个RS加入到sharding集群当作分片slices。具体可以参考上面的部署拓扑图。

开始编排shard-init服务

该服务是one-off履行

第1步 添加镜像,指定cmd为init.sh

41

第2步 设置参数,同步脚本init.sh

42

第3步 设置部署优先级

43

到这里mongo sharding集群的编排工作基本就完成了。接下来我们为mongo服务添加1个可视化面板,方便我们的使用

编排mongo-express服务

第1步 添加mongo express镜像

51

第2步 设置环境变量

52

第3步 健康检查

53

第4步 设置部署优先级

54

至此,编排工作全部完成。下面我们来测试刚才的工作成果。。

部署测试

点击部署,生成1个利用实例,我们命名为m

61

我们看1下shard-init的初始化输出:
44

我们看1下面板express的输出:

这是mongo express的首页,可以查看到该mongos上的访问概括

62

我们查看config这个db下表里的数据,特别是和集群配置有关的:

mongos表:
63

有哪些分片呢?我们看到了RS0 RS1 RS2 RS3:
64

我们可以创建1个名为csphere的db试试:
65

后续,可以参考mongo文档,在开发中,设置您的sharding key等。更进1步的mongodb管理,请参考官方文档

总结

从mongodb集群的自动化交付看全部编排进程,我们发现背后的魔法关键是:DISCOVERY ALL,发现所有的东西并使之具有可编程特性。

Q&A


Q1: 你好 目前这个的实际利用情况如何?有何挑战?

A1: 实际测试运行良好。挑战在于编排进程,背后的discovery能力能否满足自动化的能力。在实际生产中,可以优化您的配置文件,如挑战timeout等,或日志的loglevel

Q2: 模板文件通过甚么语言进行渲染,通过甚么流程发现启动容器的信息?

A2: 希云cSphere平台背后有1套强大的配置模版引擎,golang模版。平台的调和中心可以发现各种参数并进行可编程去应对自动化挑战

Q3: 你好 mongodb群集性能瓶颈,监控指标你觉得最重要的是甚么,扩容的时候要注意甚么?

A3: mongo集群在使用上注意存储引擎的选择,在3.2之前是mmap,3.2已调剂,新的默许引擎能够更好的处理大数据量的问题。mongo的水平扩大本身很好,注意mongos代理部署的多1点,避免流量从单个mongos流入流出

联系希云


电话 010⑹2249349

邮箱 docker@csphere.cn

官网 http://csphere.cn

生活不易,码农辛苦
如果您觉得本网站对您的学习有所帮助,可以手机扫描二维码进行捐赠
程序员人生
------分隔线----------------------------
分享到:
------分隔线----------------------------
关闭
程序员人生