MPP安装

安装到了10.183.40.28

配置 install_senior.ini

# 普通安装前一定要将相关MPP的用户删除,否则可能出现各种意想不到的问题
[GENERAL]
# 安装类型,默认普通安装为0,增量安装需改为1
# 增量安装即机器上有MPP集群,现需添加coordinator或worker节点
install_type=0

# 是否覆盖安装 0:非覆盖安装,1:覆盖安装
# 非覆盖安装:在安装遇到同名用户时,报错退出  覆盖安装:清除文件在安装
recover_install=0

# 是否 source sql 文件,通过mpp刷视图 0: 否, 1:是
# 默认随GDB整体一键安装时无需刷视图为0,通过cn下发。单独安装MPP时需置为1。
source_sql=0

# 登录命令串的用户名和密码,source_sql为1,需要mpp单独刷视图时,需要填写,否则为空即可。
proxy_user=
proxy_password=

# MPP安装适配insightAgent鉴权处理
# GoldenDB版本为523*系列和522*系列时此值要改为1,其他GoldenDB版本此值为0
authentication=0

# 所有管理节点的IP,默认为空,即认为zk_ip中所有IP组成了此manager_ip
# 若此项填值,将不使用zk_ip的IP组成此manager_ip,管理节点IP列表和zk_ip不一致时此项一定要填
# 格式为:空或者ip1,ip2,ip3,例10.0.0.0,10.0.0.1
manager_ip=

# MPP的ZK信息,格式为ip1:port,ip2:port,ip3:port
# 此值和manager用户下metadataserver.ini中zk_host_ip保持一致,建议直接拷贝
zk_ip=10.0.40.5:32181,10.0.40.24:32181,10.0.111.3:32181,10.0.111.4:32181

# InsightAgent采集端服务端口
rest_port=8021

# MPP用户的密码,防止无密码、弱密码
mpp_user_passwd=******

# MPP用户的属组,需要和goldendb一致
user_group=goldendb

[CLUSTER]
# 按集群安装coordinator和worker
# 格式为:(每行配置项以类似c1开头,表示和相关集群绑定,不用安装的集群请把相关行删除)
# 若集群不安装worker则worker个数填0,示例如下所示(集群2没有安装worker):
# 不安装worker的集群会用到[WORKER]中描述的全局级worker
#    .e.g: c1_worker_coordinator_ip=ip1,coordinator个数,worker个数;ip2,coordinator个数,worker个数:ip1_dbproxy1,ip2_dbproxy1
# 针对不同集群的安装,请自行添加或者删除相关行
# 每一行不同IP间用";"分隔,每个集群绑定的Proxy和前面用":"分隔,格式为"ip_proxy名",不需要填写前缀,可以绑定多个Proxy,逗号分隔
# Coordinator与Proxy绑定规则:
#    说明:此规则中按照个数对Coordinator和Proxy进行编号:
#    如: 10.0.0.1,1,1;10.0.0.2,1,1:10.0.0.1_dbproxy1,10.0.0.2_dbproxy1,即Coordinator[1,2], Proxy[1,2]
#    1、当Coordinator[1,2,3], Proxy[1,2,3],即数量相同时: 1->1, 2->2, 3->3
#    2、当Coordinator[1,2,3], Proxy[1,2,3,4,5,6,7],即Coordinator较少时: 1->1, 2->2, 3->3, 1->4, 2->5, 3->6, 1->7
#    3、当Coordinator[1,2,3], Proxy[1,2],即Coordinator较多时: 1->1, 2->2
# 如果不重启Proxy也就是不配置proxy.ini,":"后面的项目填了也没啥用,但也一定要填上
# 连续IP可以使用"-"连接,例如10.0.0.11-20,1,1代表10.0.0.11到10.0.0.20内所有连续IP,均安装一个coordinator和一个worker

# cluster_1
c1_mpp_worker_coordinator_ip=10.0.40.28,1,1:10.0.40.28_dbproxy1

# cluster_2
# c2_mpp_worker_coordinator_ip=10.0.0.0,1,0;10.0.0.1,1,0:10.0.0.0_dbproxy2

[WORKER]
# 全局级worker,安装此worker服务于所有未安装worker的集群
# 默认为空,不安装全局级worker,此时各集群必须安装自己专属的worker
# 若所有集群都安装了集群本身专属worker,填此项会安装全局worker,但默认不会使用
# coordinator得配置etc/node.properties中配置node.worker-choose=0即可使用全局worker
# 配置项填写和上面相似,类似10.0.0.0,1;10.0.0.1,1,此时这里IP后的1代表worker的数量
global_worker=

[ALARM]
# 是否为ZK环境(多管理节点)
# 多管理节点为1,单管理节点为0
is_zk=1

# 接受告警信息的URL
# 填写主管理节点上OMM的URL
omm_url=https://10.0.40.24:8444

[PATH]
# MPP用户安装目录
user_install_path=/pathdir/goldendb

# 产品包解压目录
package_path=/pathdir/goldendb/MppInstall

[NODES]
# 服务器的城市机房及IP信息,必填
# 配置项的名称格式如下,不允许修改:/
#     local_room表示本地机房,city_room表示同城机房,remote_room1表示异地机房1,remote_room2表示异地机房2
# 配置值的格式如下:
#     城市|机房|服务器IP列表
#     服务器IP列表中可以有一个IP或者多个IP,多个IP之间用英文逗号分隔
#     连续IP使用"-"连接,例如10.0.0.11-20,代表10.0.0.11到10.0.0.20内所有连续IP
#     没有相应服务器则置为空,比如remote_room2=
local_room=石家庄|鹿泉|10.0.40.5,10.0.40.24,10.0.40.28,10.0.40.34,10.0.40.43,10.0.40.74,10.0.40.76,10.0.40.82,10.0.40.109,10.0.40.121,10.0.40.129,10.0.40.132,10.0.40.139

city_room1=石家庄|开发区|10.0.111.3,10.0.111.4,10.0.111.27,10.0.111.30,10.0.111.32,10.0.111.39,10.0.111.43,10.0.111.45,10.0.111.46,10.0.111.48,10.0.111.53,10.0.111.64,10.0.111.69

remote_room1=

remote_room2=

[ITEM]
# city和room的隔离级别,此项可填0、1、2、3、4,默认为4
# 增量安装时必须和之前隔离级别一致
# 0表示所有的worker节点都可以使用
# 1表示只能使用和coordinator同机房的worker
# 2表示只能使用和coordinator同城市的worker
# 3表示优先选同机房的worker,没有的话,同城市的worker也能接受
# 4表示优先选同城市的worker,没有的话,取所有可用的worker
city_isolation=4

# MPP选择读DB策略,默认为1
# 增量安装时必须和之前读DB配置一致
# 1表示只读主,2表示只读备(无备机可用会报错),3表示先读备,无备机可用读主
ds_strategy=1

# MPP的coordinator和worker节点值,默认值从1开始递增,保证环境中各节点的node_id全局唯一
# 增量安装时,连接MPP使用select * from system.runtime.nodes查询所有集群的最大节点数
# 例如有两个集群,查询两个集群的nodes后若最大为node8,此时这里填9
node_id=1

# 连接MPP客户端端口号,同一个IP安装多个coordinator时此端口号递减
# 注意增量安装时填写递增后的端口,不要造成端口冲突
mpp_port=9999

# mysql -udbproxy -h10.0.0.28 -p123456 -P9999

# webui、coordinator和worker之间信息交互端口号
# 若是增量安装,使用select * from system.runtime.nodes查看最大端口数
# 若此时最大为9011,这里填比最大端口大些的端口号,例如这里分别可以填9012和9013
coor_http_port=9010
work_http_port=9011

# 用户名前缀,增量安装时和之前的前缀保持一致
pre_mpp_user=zx

# 是否重启proxy和manager,0表示不重启,1表示重启
# 若为增量安装,这两个参数不起作用,不重启proxy和manager
# Proxy当前处理业务时,安装MPP不要进行重启,改为0
# Proxy相关业务处理完成后,请做如下操作,完成MPP的安装
#     修改Proxy用户下proxy.ini配置文件中coordinator_ip和coordinator_port并重启Proxy
#     修改manager用户下metadataserver.ini中zk_open为1并重启manager
is_restart_proxy=1
is_restart_manager=1

# Xmx内存,根据服务器内存使用情况,对MPP进行内存预分配,Xmx值需要小于服务器内存安全值
# 可通过free -h命令查看服务器内存,单位为G
coor_Xmx=32
work_Xmx=32
cd /home/mppInstall/ZXCLOUD-GOLDENDB-MppEngine/autoupdate
python do_install.py

安装完成后,检查是否部署成功。mpp组件状态查看,,以zxcoordinator1用户和zxworker1用户为例

切换到coordinator用户
su - zxcoordinator1
查看启停状态
dbmoni -status
 
切换到worker用户
su - zxworker1
查看启停状态
dbmoni -status

如果coordinator和worker均正常运行,则可以通过mpp进入mysql

mysql -udbproxy -h10.229.40.2 -p'fr6G20!Q@1' -P9999

因为9999端口占用 所以修改端口为9998,修改配置文件:

/pathdir/goldendb/zxcoordinator1/goldendb-mpp-server-407/data/etc/node.properties