运维工具
运维工具
集群管理工具
IoTDB 集群管理工具是一款易用的运维工具(企业版工具)。旨在解决 IoTDB 分布式系统多节点的运维难题,主要包括集群部署、集群启停、弹性扩容、配置更新、数据导出等功能,从而实现对复杂数据库集群的一键式指令下发,极大降低管理难度。本文档将说明如何用集群管理工具远程部署、配置、启动和停止 IoTDB 集群实例。
环境准备
本工具为 TimechoDB(基于IoTDB的企业版数据库)配套工具,您可以联系您的销售获取工具下载方式。
IoTDB 要部署的机器需要依赖jdk 8及以上版本、lsof、netstat、unzip功能如果没有请自行安装,可以参考文档最后的一节环境所需安装命令。
提示:IoTDB集群管理工具需要使用有root权限的账号
部署方法
下载安装
本工具为TimechoDB(基于IoTDB的企业版数据库)配套工具,您可以联系您的销售获取工具下载方式。
注意:由于二进制包仅支持GLIBC2.17 及以上版本,因此最低适配Centos7版本
- 在iotd目录内输入以下指令后:
bash install-iotdbctl.sh
即可在之后的 shell 内激活 iotdbctl 关键词,如检查部署前所需的环境指令如下所示:
iotdbctl cluster check example
- 也可以不激活iotd直接使用 <iotdbctl absolute path>/sbin/iotdbctl 来执行命令,如检查部署前所需的环境:
<iotdbctl absolute path>/sbin/iotdbctl cluster check example
系统结构
IoTDB集群管理工具主要由config、logs、doc、sbin目录组成。
config
存放要部署的集群配置文件如果要使用集群部署工具需要修改里面的yaml文件。logs
存放部署工具日志,如果想要查看部署工具执行日志请查看logs/iotd_yyyy_mm_dd.log
。sbin
存放集群部署工具所需的二进制包。doc
存放用户手册、开发手册和推荐部署手册。
集群配置文件介绍
- 在
iotdbctl/config
目录下有集群配置的yaml文件,yaml文件名字就是集群名字yaml 文件可以有多个,为了方便用户配置yaml文件在iotd/config目录下面提供了default_cluster.yaml
示例。 - yaml 文件配置由
global
、confignode_servers
、datanode_servers
、grafana_server
、prometheus_server
四大部分组成 - global 是通用配置主要配置机器用户名密码、IoTDB本地安装文件、Jdk配置等。在
iotdbctl/config
目录中提供了一个default_cluster.yaml
样例数据,
用户可以复制修改成自己集群名字并参考里面的说明进行配置IoTDB集群,在default_cluster.yaml
样例中没有注释的均为必填项,已经注释的为非必填项。
例如要执行default_cluster.yaml
检查命令则需要执行命令iotdbctl cluster check default_cluster
即可,
更多详细命令请参考下面命令列表。
参数 | 说明 | 是否必填 |
---|---|---|
iotdb_zip_dir | IoTDB 部署分发目录,如果值为空则从iotdb_download_url 指定地址下载 | 非必填 |
iotdb_download_url | IoTDB 下载地址,如果iotdb_zip_dir 没有值则从指定地址下载 | 非必填 |
jdk_tar_dir | jdk 本地目录,可使用该 jdk 路径进行上传部署至目标节点。 | 非必填 |
jdk_deploy_dir | jdk 远程机器部署目录,会将 jdk 部署到该目录下面,与下面的jdk_dir_name 参数构成完整的jdk部署目录即 <jdk_deploy_dir>/<jdk_dir_name> | 非必填 |
jdk_dir_name | jdk 解压后的目录名称默认是jdk_iotdb | 非必填 |
iotdb_lib_dir | IoTDB lib 目录或者IoTDB 的lib 压缩包仅支持.zip格式 ,仅用于IoTDB升级,默认处于注释状态,如需升级请打开注释修改路径即可。如果使用zip文件请使用zip 命令压缩iotdb/lib目录例如 zip -r lib.zip apache-iotdb-1.2.0/lib/* | 非必填 |
user | ssh登陆部署机器的用户名 | 必填 |
password | ssh登录的密码, 如果password未指定使用pkey登陆, 请确保已配置节点之间ssh登录免密钥 | 非必填 |
pkey | 密钥登陆如果password有值优先使用password否则使用pkey登陆 | 非必填 |
ssh_port | ssh登录端口 | 必填 |
iotdb_admin_user | iotdb服务用户名默认root | 非必填 |
iotdb_admin_password | iotdb服务密码默认root | 非必填 |
deploy_dir | IoTDB 部署目录,会把 IoTDB 部署到该目录下面与下面的iotdb_dir_name 参数构成完整的IoTDB 部署目录即 <deploy_dir>/<iotdb_dir_name> | 必填 |
iotdb_dir_name | IoTDB 解压后的目录名称默认是iotdb | 非必填 |
datanode-env.sh | 对应iotdb/config/datanode-env.sh ,在global 与confignode_servers 同时配置值时优先使用confignode_servers 中的值 | 非必填 |
confignode-env.sh | 对应iotdb/config/confignode-env.sh ,在global 与datanode_servers 同时配置值时优先使用datanode_servers 中的值 | 非必填 |
iotdb-common.properties | 对应iotdb/config/iotdb-common.properties | 非必填 |
cn_seed_config_node | 集群配置地址指向存活的ConfigNode,默认指向confignode_x,在global 与confignode_servers 同时配置值时优先使用confignode_servers 中的值,对应iotdb/config/iotdb-system.properties 中的cn_seed_config_node | 必填 |
dn_seed_config_node | 集群配置地址指向存活的ConfigNode,默认指向confignode_x,在global 与datanode_servers 同时配置值时优先使用datanode_servers 中的值,对应iotdb/config/iotdb-system.properties 中的dn_seed_config_node | 必填 |
其中datanode-env.sh 和confignode-env.sh 可以配置额外参数extra_opts,当该参数配置后会在datanode-env.sh 和confignode-env.sh 后面追加对应的值,可参考default_cluster.yaml,配置示例如下:
datanode-env.sh:
extra_opts: |
IOTDB_JMX_OPTS="IOTDB_JMX_OPTS -XX:MaxGCPauseMillis=200"
- confignode_servers 是部署IoTDB Confignodes配置,里面可以配置多个Confignode
默认将第一个启动的ConfigNode节点node1当作Seed-ConfigNode
参数 | 说明 | 是否必填 |
---|---|---|
name | Confignode 名称 | 必填 |
deploy_dir | IoTDB config node 部署目录 | 必填| |
cn_internal_address | 对应iotdb/内部通信地址,对应iotdb/config/iotdb-system.properties 中的cn_internal_address | 必填 |
cn_seed_config_node | 集群配置地址指向存活的ConfigNode,默认指向confignode_x,在global 与confignode_servers 同时配置值时优先使用confignode_servers 中的值,对应iotdb/config/iotdb-confignode.properties 中的cn_seed_config_node | 必填 |
cn_internal_port | 内部通信端口,对应iotdb/config/iotdb-system.properties 中的cn_internal_port | 必填 |
cn_consensus_port | 对应iotdb/config/iotdb-system.properties 中的cn_consensus_port | 非必填 |
cn_data_dir | 对应iotdb/config/iotdb-system.properties 中的cn_data_dir | 必填 |
iotdb-system.properties | 对应iotdb/config/iotdb-system.properties 在global 与confignode_servers 同时配置值优先使用confignode_servers中的值 | 非必填 |
- datanode_servers 是部署IoTDB Datanodes配置,里面可以配置多个Datanode
参数 | 说明 | 是否必填 |
---|---|---|
name | Datanode 名称 | 必填 |
deploy_dir | IoTDB data node 部署目录 | 必填 |
dn_rpc_address | datanode rpc 地址对应iotdb/config/iotdb-system.properties 中的dn_rpc_address | 必填 |
dn_internal_address | 内部通信地址,对应iotdb/config/iotdb-system.properties 中的dn_internal_address | 必填 |
dn_seed_config_node | 集群配置地址指向存活的ConfigNode,默认指向confignode_x,在global 与datanode_servers 同时配置值时优先使用datanode_servers 中的值,对应iotdb/config/iotdb-system.properties 中的dn_seed_config_node | 必填 |
dn_rpc_port | datanode rpc端口地址,对应iotdb/config/iotdb-system.properties 中的dn_rpc_port | 必填 |
dn_internal_port | 内部通信端口,对应iotdb/config/iotdb-system.properties 中的dn_internal_port | 必填 |
iotdb-system.properties | 对应iotdb/config/iotdb-common.properties 在global 与datanode_servers 同时配置值优先使用datanode_servers 中的值 | 非必填 |
- grafana_server 是部署Grafana 相关配置
参数 | 说明 | 是否必填 |
---|---|---|
grafana_dir_name | grafana 解压目录名称 | 非必填默认grafana_iotdb |
host | grafana 部署的服务器ip | 必填 |
grafana_port | grafana 部署机器的端口 | 非必填,默认3000 |
deploy_dir | grafana 部署服务器目录 | 必填 |
grafana_tar_dir | grafana 压缩包位置 | 必填 |
dashboards | dashboards 所在的位置 | 非必填,多个用逗号隔开 |
- prometheus_server 是部署Prometheus 相关配置
参数 | 说明 | 是否必填 |
---|---|---|
prometheus_dir_name | prometheus 解压目录名称 | 非必填默认prometheus_iotdb |
host | prometheus 部署的服务器ip | 必填 |
prometheus_port | prometheus 部署机器的端口 | 非必填,默认9090 |
deploy_dir | prometheus 部署服务器目录 | 必填 |
prometheus_tar_dir | prometheus 压缩包位置 | 必填 |
storage_tsdb_retention_time | 默认保存数据天数 默认15天 | 非必填 |
storage_tsdb_retention_size | 指定block可以保存的数据大小默认512M ,注意单位KB, MB, GB, TB, PB, EB | 非必填 |
如果在config/xxx.yaml的iotdb-system.properties
和iotdb-system.properties
中配置了metrics,则会自动把配置放入到promethues无需手动修改
注意:如何配置yaml key对应的值包含特殊字符如:等建议整个value使用双引号,对应的文件路径中不要使用包含空格的路径,防止出现识别出现异常问题。
使用场景
清理数据场景
- 清理集群数据场景会删除IoTDB集群中的data目录以及yaml文件中配置的
cn_system_dir
、cn_consensus_dir
、dn_data_dirs
、dn_consensus_dir
、dn_system_dir
、logs
和ext
目录。 - 首先执行停止集群命令、然后在执行集群清理命令。
iotdbctl cluster stop default_cluster
iotdbctl cluster clean default_cluster
集群销毁场景
- 集群销毁场景会删除IoTDB集群中的
data
、cn_system_dir
、cn_consensus_dir
、dn_data_dirs
、dn_consensus_dir
、dn_system_dir
、logs
、ext
、IoTDB
部署目录、
grafana部署目录和prometheus部署目录。 - 首先执行停止集群命令、然后在执行集群销毁命令。
iotdbctl cluster stop default_cluster
iotdbctl cluster destroy default_cluster
集群升级场景
- 集群升级首先需要在config/xxx.yaml中配置
iotdb_lib_dir
为要上传到服务器的jar所在目录路径(例如iotdb/lib)。 - 如果使用zip文件上传请使用zip 命令压缩iotdb/lib目录例如 zip -r lib.zip apache-iotdb-1.2.0/lib/*
- 执行上传命令、然后执行重启IoTDB集群命令即可完成集群升级
iotdbctl cluster dist-lib default_cluster
iotdbctl cluster restart default_cluster
集群配置文件的热部署场景
- 首先修改在config/xxx.yaml中配置。
- 执行分发命令、然后执行热部署命令即可完成集群配置的热部署
iotdbctl cluster dist-conf default_cluster
iotdbctl cluster reload default_cluster
集群扩容场景
- 首先修改在config/xxx.yaml中添加一个datanode 或者confignode 节点。
- 执行集群扩容命令
iotdbctl cluster scaleout default_cluster
集群缩容场景
- 首先在config/xxx.yaml中找到要缩容的节点名字或者ip+port(其中confignode port 是cn_internal_port、datanode port 是rpc_port)
- 执行集群缩容命令
iotdbctl cluster scalein default_cluster
已有IoTDB集群,使用集群部署工具场景
- 配置服务器的
user
、passwod
或pkey
、ssh_port
- 修改config/xxx.yaml中IoTDB 部署路径,
deploy_dir
(IoTDB 部署目录)、iotdb_dir_name
(IoTDB解压目录名称,默认是iotdb)
例如IoTDB 部署完整路径是/home/data/apache-iotdb-1.1.1
则需要修改yaml文件deploy_dir:/home/data/
、iotdb_dir_name:apache-iotdb-1.1.1
- 如果服务器不是使用的java_home则修改
jdk_deploy_dir
(jdk 部署目录)、jdk_dir_name
(jdk解压后的目录名称,默认是jdk_iotdb),如果使用的是java_home 则不需要修改配置
例如jdk部署完整路径是/home/data/jdk_1.8.2
则需要修改yaml文件jdk_deploy_dir:/home/data/
、jdk_dir_name:jdk_1.8.2
- 配置
cn_seed_config_node
、dn_seed_config_node
- 配置
confignode_servers
中iotdb-system.properties
里面的cn_internal_address
、cn_internal_port
、cn_consensus_port
、cn_system_dir
、cn_consensus_dir
里面的值不是IoTDB默认的则需要配置否则可不必配置 - 配置
datanode_servers
中iotdb-system.properties
里面的dn_rpc_address
、dn_internal_address
、dn_data_dirs
、dn_consensus_dir
、dn_system_dir
等 - 执行初始化命令
iotdbctl cluster init default_cluster
一键部署IoTDB、Grafana和Prometheus 场景
- 配置
iotdb-system.properties
打开metrics接口 - 配置Grafana 配置,如果
dashboards
有多个就用逗号隔开,名字不能重复否则会被覆盖。 - 配置Prometheus配置,IoTDB 集群配置了metrics 则无需手动修改Prometheus 配置会根据哪个节点配置了metrics,自动修改Prometheus 配置。
- 启动集群
iotdbctl cluster start default_cluster
更加详细参数请参考上方的 集群配置文件介绍
命令格式
本工具的基本用法为:
iotdbctl cluster <key> <cluster name> [params (Optional)]
key 表示了具体的命令。
cluster name 表示集群名称(即
iotdbctl/config
文件中yaml文件名字)。params 表示了命令的所需参数(选填)。
例如部署default_cluster集群的命令格式为:
iotdbctl cluster deploy default_cluster
- 集群的功能及参数列表如下:
命令 | 功能 | 参数 |
---|---|---|
check | 检测集群是否可以部署 | 集群名称列表 |
clean | 清理集群 | 集群名称 |
deploy/dist-all | 部署集群 | 集群名称 ,-N,模块名称(iotdb、grafana、prometheus可选),-op force(可选) |
list | 打印集群及状态列表 | 无 |
start | 启动集群 | 集群名称,-N,节点名称(nodename、grafana、prometheus可选) |
stop | 关闭集群 | 集群名称,-N,节点名称(nodename、grafana、prometheus可选) ,-op force(nodename、grafana、prometheus可选) |
restart | 重启集群 | 集群名称,-N,节点名称(nodename、grafana、prometheus可选),-op force(强制停止)/rolling(滚动重启) |
show | 查看集群信息,details字段表示展示集群信息细节 | 集群名称, details(可选) |
destroy | 销毁集群 | 集群名称,-N,模块名称(iotdb、grafana、prometheus可选) |
scaleout | 集群扩容 | 集群名称 |
scalein | 集群缩容 | 集群名称,-N,集群节点名字或集群节点ip+port |
reload | 集群热加载 | 集群名称 |
dist-conf | 集群配置文件分发 | 集群名称 |
dumplog | 备份指定集群日志 | 集群名称,-N,集群节点名字 -h 备份至目标机器ip -pw 备份至目标机器密码 -p 备份至目标机器端口 -path 备份的目录 -startdate 起始时间 -enddate 结束时间 -loglevel 日志类型 -l 传输速度 |
dumpdata | 备份指定集群数据 | 集群名称, -h 备份至目标机器ip -pw 备份至目标机器密码 -p 备份至目标机器端口 -path 备份的目录 -startdate 起始时间 -enddate 结束时间 -l 传输速度 |
dist-lib | lib 包升级 | 集群名字(升级完后请重启) |
init | 已有集群使用集群部署工具时,初始化集群配置 | 集群名字,初始化集群配置 |
status | 查看进程状态 | 集群名字 |
acitvate | 激活集群 | 集群名字 |
dist-plugin | 上传plugin(udf,trigger,pipe)到集群 | 集群名字,-type 类型 U(udf)/T(trigger)/P(pipe) -file /xxxx/trigger.jar,上传完成后需手动执行创建udf、pipe、trigger命令 |
upgrade | 滚动升级 | 集群名字 |
health_check | 健康检查 | 集群名字,-N,节点名称(可选) |
backup | 停机备份 | 集群名字,-N,节点名称(可选) |
importschema | 元数据导入 | 集群名字,-N,节点名称(必填) -param 参数 |
exportschema | 元数据导出 | 集群名字,-N,节点名称(必填) -param 参数 |
详细命令执行过程
下面的命令都是以default_cluster.yaml 为示例执行的,用户可以修改成自己的集群文件来执行
检查集群部署环境命令
iotdbctl cluster check default_cluster
根据 cluster-name 找到默认位置的 yaml 文件,获取
confignode_servers
和datanode_servers
配置信息验证目标节点是否能够通过 SSH 登录
验证对应节点上的 JDK 版本是否满足IoTDB jdk1.8及以上版本、服务器是否按照unzip、是否安装lsof 或者netstat
如果看到下面提示
Info:example check successfully!
证明服务器已经具备安装的要求,
如果输出Error:example check fail!
证明有部分条件没有满足需求可以查看上面的输出的Error日志(例如:Error:Server (ip:172.20.31.76) iotdb port(10713) is listening
)进行修复,
如果检查jdk没有满足要求,我们可以自己在yaml 文件中配置一个jdk1.8 及以上版本的进行部署不影响后面使用,
如果检查lsof、netstat或者unzip 不满足要求需要在服务器上自行安装。
部署集群命令
iotdbctl cluster deploy default_cluster
根据 cluster-name 找到默认位置的 yaml 文件,获取
confignode_servers
和datanode_servers
配置信息根据
confignode_servers
和datanode_servers
中的节点信息上传IoTDB压缩包和jdk压缩包(如果yaml中配置jdk_tar_dir
和jdk_deploy_dir
值)根据yaml文件节点配置信息生成并上传
iotdb-system.properties
iotdbctl cluster deploy default_cluster -op force
注意:该命令会强制执行部署,具体过程会删除已存在的部署目录重新部署
部署单个模块
# 部署grafana模块
iotdbctl cluster deploy default_cluster -N grafana
# 部署prometheus模块
iotdbctl cluster deploy default_cluster -N prometheus
# 部署iotdb模块
iotdbctl cluster deploy default_cluster -N iotdb
启动集群命令
iotdbctl cluster start default_cluster
根据 cluster-name 找到默认位置的 yaml 文件,获取
confignode_servers
和datanode_servers
配置信息启动confignode,根据yaml配置文件中
confignode_servers
中的顺序依次启动同时根据进程id检查confignode是否正常,第一个confignode 为seek config启动datanode,根据yaml配置文件中
datanode_servers
中的顺序依次启动同时根据进程id检查datanode是否正常如果根据进程id检查进程存在后,通过cli依次检查集群列表中每个服务是否正常,如果cli链接失败则每隔10s重试一次直到成功最多重试5次
启动单个节点命令
#按照IoTDB 节点名称启动
iotdbctl cluster start default_cluster -N datanode_1
#按照IoTDB 集群ip+port启动,其中port对应confignode的cn_internal_port、datanode的rpc_port
iotdbctl cluster start default_cluster -N 192.168.1.5:6667
#启动grafana
iotdbctl cluster start default_cluster -N grafana
#启动prometheus
iotdbctl cluster start default_cluster -N prometheus
根据 cluster-name 找到默认位置的 yaml 文件
根据提供的节点名称或者ip:port找到对于节点位置信息,如果启动的节点是
data_node
则ip使用yaml 文件中的dn_rpc_address
、port 使用的是yaml文件中datanode_servers 中的dn_rpc_port
。
如果启动的节点是config_node
则ip使用的是yaml文件中confignode_servers 中的cn_internal_address
、port 使用的是cn_internal_port
启动该节点
说明:由于集群部署工具仅是调用了IoTDB集群中的start-confignode.sh和start-datanode.sh 脚本,
在实际输出结果失败时有可能是集群还未正常启动,建议使用status命令进行查看当前集群状态(iotdbctl cluster status xxx)
查看IoTDB集群状态命令
iotdbctl cluster show default_cluster
#查看IoTDB集群详细信息
iotdbctl cluster show default_cluster details
根据 cluster-name 找到默认位置的 yaml 文件,获取
confignode_servers
和datanode_servers
配置信息依次在datanode通过cli执行
show cluster details
如果有一个节点执行成功则不会在后续节点继续执行cli直接返回结果
停止集群命令
iotdbctl cluster stop default_cluster
根据 cluster-name 找到默认位置的 yaml 文件,获取
confignode_servers
和datanode_servers
配置信息根据
datanode_servers
中datanode节点信息,按照配置先后顺序依次停止datanode节点根据
confignode_servers
中confignode节点信息,按照配置依次停止confignode节点
强制停止集群命令
iotdbctl cluster stop default_cluster -op force
会直接执行kill -9 pid 命令强制停止集群
停止单个节点命令
#按照IoTDB 节点名称停止
iotdbctl cluster stop default_cluster -N datanode_1
#按照IoTDB 集群ip+port停止(ip+port是按照datanode中的ip+dn_rpc_port获取唯一节点或confignode中的ip+cn_internal_port获取唯一节点)
iotdbctl cluster stop default_cluster -N 192.168.1.5:6667
#停止grafana
iotdbctl cluster stop default_cluster -N grafana
#停止prometheus
iotdbctl cluster stop default_cluster -N prometheus
根据 cluster-name 找到默认位置的 yaml 文件
根据提供的节点名称或者ip:port找到对应节点位置信息,如果停止的节点是
data_node
则ip使用yaml 文件中的dn_rpc_address
、port 使用的是yaml文件中datanode_servers 中的dn_rpc_port
。
如果停止的节点是config_node
则ip使用的是yaml文件中confignode_servers 中的cn_internal_address
、port 使用的是cn_internal_port
停止该节点
说明:由于集群部署工具仅是调用了IoTDB集群中的stop-confignode.sh和stop-datanode.sh 脚本,在某些情况下有可能iotdb集群并未停止。
清理集群数据命令
iotdbctl cluster clean default_cluster
根据 cluster-name 找到默认位置的 yaml 文件,获取
confignode_servers
、datanode_servers
配置信息根据
confignode_servers
、datanode_servers
中的信息,检查是否还有服务正在运行,
如果有任何一个服务正在运行则不会执行清理命令删除IoTDB集群中的data目录以及yaml文件中配置的
cn_system_dir
、cn_consensus_dir
、dn_data_dirs
、dn_consensus_dir
、dn_system_dir
、logs
和ext
目录。
重启集群命令
iotdbctl cluster restart default_cluster
根据 cluster-name 找到默认位置的 yaml 文件,获取
confignode_servers
、datanode_servers
、grafana
、prometheus
配置信息执行上述的停止集群命令(stop),然后执行启动集群命令(start) 具体参考上面的start 和stop 命令
强制重启集群命令
iotdbctl cluster restart default_cluster -op force
会直接执行kill -9 pid 命令强制停止集群,然后启动集群
重启单个节点命令
#按照IoTDB 节点名称重启datanode_1
iotdbctl cluster restart default_cluster -N datanode_1
#按照IoTDB 节点名称重启confignode_1
iotdbctl cluster restart default_cluster -N confignode_1
#重启grafana
iotdbctl cluster restart default_cluster -N grafana
#重启prometheus
iotdbctl cluster restart default_cluster -N prometheus
集群缩容命令
#按照节点名称缩容
iotdbctl cluster scalein default_cluster -N nodename
#按照ip+port缩容(ip+port按照datanode中的ip+dn_rpc_port获取唯一节点,confignode中的ip+cn_internal_port获取唯一节点)
iotdbctl cluster scalein default_cluster -N ip:port
根据 cluster-name 找到默认位置的 yaml 文件,获取
confignode_servers
和datanode_servers
配置信息判断要缩容的confignode节点和datanode是否只剩一个,如果只剩一个则不能执行缩容
然后根据ip:port或者nodename 获取要缩容的节点信息,执行缩容命令,然后销毁该节点目录,如果缩容的节点是
data_node
则ip使用yaml 文件中的dn_rpc_address
、port 使用的是yaml文件中datanode_servers 中的dn_rpc_port
。
如果缩容的节点是config_node
则ip使用的是yaml文件中confignode_servers 中的cn_internal_address
、port 使用的是cn_internal_port
提示:目前一次仅支持一个节点缩容
集群扩容命令
iotdbctl cluster scaleout default_cluster
修改config/xxx.yaml 文件添加一个datanode 节点或者confignode节点
根据 cluster-name 找到默认位置的 yaml 文件,获取
confignode_servers
和datanode_servers
配置信息找到要扩容的节点,执行上传IoTDB压缩包和jdb包(如果yaml中配置
jdk_tar_dir
和jdk_deploy_dir
值)并解压根据yaml文件节点配置信息生成并上传
iotdb-system.properties
执行启动该节点命令并校验节点是否启动成功
提示:目前一次仅支持一个节点扩容
销毁集群命令
iotdbctl cluster destroy default_cluster
cluster-name 找到默认位置的 yaml 文件
根据
confignode_servers
、datanode_servers
、grafana
、prometheus
中node节点信息,检查是否节点还在运行,
如果有任何一个节点正在运行则停止销毁命令删除IoTDB集群中的
data
以及yaml文件配置的cn_system_dir
、cn_consensus_dir
、dn_data_dirs
、dn_consensus_dir
、dn_system_dir
、logs
、ext
、IoTDB
部署目录、
grafana部署目录和prometheus部署目录
销毁单个模块
# 销毁grafana模块
iotdbctl cluster destroy default_cluster -N grafana
# 销毁prometheus模块
iotdbctl cluster destroy default_cluster -N prometheus
# 销毁iotdb模块
iotdbctl cluster destroy default_cluster -N iotdb
分发集群配置命令
iotdbctl cluster dist-conf default_cluster
根据 cluster-name 找到默认位置的 yaml 文件,获取
confignode_servers
、datanode_servers
、grafana
、prometheus
配置信息根据yaml文件节点配置信息生成并依次上传
iotdb-system.properties
到指定节点
热加载集群配置命令
iotdbctl cluster reload default_cluster
根据 cluster-name 找到默认位置的 yaml 文件,获取
confignode_servers
和datanode_servers
配置信息根据yaml文件节点配置信息依次在cli中执行
load configuration
集群节点日志备份
iotdbctl cluster dumplog default_cluster -N datanode_1,confignode_1 -startdate '2023-04-11' -enddate '2023-04-26' -h 192.168.9.48 -p 36000 -u root -pw root -path '/iotdb/logs' -logs '/root/data/db/iotdb/logs'
根据 cluster-name 找到默认位置的 yaml 文件
该命令会根据yaml文件校验datanode_1,confignode_1 是否存在,然后根据配置的起止日期(startdate<=logtime<=enddate)备份指定节点datanode_1,confignode_1 的日志数据到指定服务
192.168.9.48
端口36000
数据备份路径是/iotdb/logs
,IoTDB日志存储路径在/root/data/db/iotdb/logs
(非必填,如果不填写-logs xxx 默认从IoTDB安装路径/logs下面备份日志)
命令 | 功能 | 是否必填 |
---|---|---|
-h | 存放备份数据机器ip | 否 |
-u | 存放备份数据机器用户名 | 否 |
-pw | 存放备份数据机器密码 | 否 |
-p | 存放备份数据机器端口(默认22) | 否 |
-path | 存放备份数据的路径(默认当前路径) | 否 |
-loglevel | 日志基本有all、info、error、warn(默认是全部) | 否 |
-l | 限速(默认不限速范围0到104857601 单位Kbit/s) | 否 |
-N | 配置文件集群名称多个用逗号隔开 | 是 |
-startdate | 起始时间(包含默认1970-01-01) | 否 |
-enddate | 截止时间(包含) | 否 |
-logs | IoTDB 日志存放路径,默认是({iotdb}/logs) | 否 |
集群节点数据备份
iotdbctl cluster dumpdata default_cluster -granularity partition -startdate '2023-04-11' -enddate '2023-04-26' -h 192.168.9.48 -p 36000 -u root -pw root -path '/iotdb/datas'
- 该命令会根据yaml文件获取leader 节点,然后根据起止日期(startdate<=logtime<=enddate)备份数据到192.168.9.48 服务上的/iotdb/datas 目录下
命令 | 功能 | 是否必填 |
---|---|---|
-h | 存放备份数据机器ip | 否 |
-u | 存放备份数据机器用户名 | 否 |
-pw | 存放备份数据机器密码 | 否 |
-p | 存放备份数据机器端口(默认22) | 否 |
-path | 存放备份数据的路径(默认当前路径) | 否 |
-granularity | 类型partition | 是 |
-l | 限速(默认不限速范围0到104857601 单位Kbit/s) | 否 |
-startdate | 起始时间(包含) | 是 |
-enddate | 截止时间(包含) | 是 |
集群lib包上传(升级)
iotdbctl cluster dist-lib default_cluster
根据 cluster-name 找到默认位置的 yaml 文件,获取
confignode_servers
和datanode_servers
配置信息上传lib包
注意执行完升级后请重启IoTDB 才能生效
集群初始化
iotdbctl cluster init default_cluster
- 根据 cluster-name 找到默认位置的 yaml 文件,获取
confignode_servers
、datanode_servers
、grafana
、prometheus
配置信息 - 初始化集群配置
查看集群进程状态
iotdbctl cluster status default_cluster
- 根据 cluster-name 找到默认位置的 yaml 文件,获取
confignode_servers
、datanode_servers
、grafana
、prometheus
配置信息 - 展示集群的存活状态
集群授权激活
集群激活默认是通过输入激活码激活,也可以通过-op license_path 通过license路径激活
- 默认激活方式
iotdbctl cluster activate default_cluster
- 根据 cluster-name 找到默认位置的 yaml 文件,获取
confignode_servers
配置信息 - 读取里面的机器码
- 等待输入激活码
Machine code:
Kt8NfGP73FbM8g4Vty+V9qU5lgLvwqHEF3KbLN/SGWYCJ61eFRKtqy7RS/jw03lHXt4MwdidrZJ==
JHQpXu97IKwv3rzbaDwoPLUuzNCm5aEeC9ZEBW8ndKgGXEGzMms25+u==
Please enter the activation code:
JHQpXu97IKwv3rzbaDwoPLUuzNCm5aEeC9ZEBW8ndKg=,lTF1Dur1AElXIi/5jPV9h0XCm8ziPd9/R+tMYLsze1oAPxE87+Nwws=
Activation successful
- 激活单个节点
iotdbctl cluster activate default_cluster -N confignode1
- 通过license路径方式激活
iotdbctl cluster activate default_cluster -op license_path
- 根据 cluster-name 找到默认位置的 yaml 文件,获取
confignode_servers
配置信息 - 读取里面的机器码
- 等待输入激活码
Machine code:
Kt8NfGP73FbM8g4Vty+V9qU5lgLvwqHEF3KbLN/SGWYCJ61eFRKtqy7RS/jw03lHXt4MwdidrZJ==
JHQpXu97IKwv3rzbaDwoPLUuzNCm5aEeC9ZEBW8ndKgGXEGzMms25+u==
Please enter the activation code:
JHQpXu97IKwv3rzbaDwoPLUuzNCm5aEeC9ZEBW8ndKg=,lTF1Dur1AElXIi/5jPV9h0XCm8ziPd9/R+tMYLsze1oAPxE87+Nwws=
Activation successful
- 激活单个节点
iotdbctl cluster activate default_cluster -N confignode1 -op license_path
- 通过license路径方式激活
iotdbctl cluster activate default_cluster -op license_path
- 根据 cluster-name 找到默认位置的 yaml 文件,获取
confignode_servers
配置信息 - 读取里面的机器码
- 等待输入激活码
集群plugin分发
#分发udf
iotdbctl cluster dist-plugin default_cluster -type U -file /xxxx/udf.jar
#分发trigger
iotdbctl cluster dist-plugin default_cluster -type T -file /xxxx/trigger.jar
#分发pipe
iotdbctl cluster dist-plugin default_cluster -type P -file /xxxx/pipe.jar
根据 cluster-name 找到默认位置的 yaml 文件,获取
datanode_servers
配置信息上传udf/trigger/pipe jar包
上传完成后需要手动执行创建udf/trigger/pipe命令
集群滚动升级
iotdbctl cluster upgrade default_cluster
根据 cluster-name 找到默认位置的 yaml 文件,获取
confignode_servers
和datanode_servers
配置信息上传lib包
confignode 执行停止、替换lib包、启动,然后datanode执行停止、替换lib包、启动
集群健康检查
iotdbctl cluster health_check default_cluster
根据 cluster-name 找到默认位置的 yaml 文件,获取
confignode_servers
和datanode_servers
配置信息每个节点执行health_check.sh
单个节点健康检查
iotdbctl cluster health_check default_cluster -N datanode_1
- 根据 cluster-name 找到默认位置的 yaml 文件,获取
datanode_servers
配置信息 - datanode1 执行health_check.sh
集群停机备份
iotdbctl cluster backup default_cluster
根据 cluster-name 找到默认位置的 yaml 文件,获取
confignode_servers
和datanode_servers
配置信息单个节点健康检查
iotdbctl cluster backup default_cluster -N datanode_1
- 根据 cluster-name 找到默认位置的 yaml 文件,获取
datanode_servers
配置信息 - datanode1 执行backup.sh
说明:多个节点部署到单台机器,只支持 quick 模式
集群元数据导入
iotdbctl cluster importschema default_cluster -N datanode1 -param "-s ./dump0.csv -fd ./failed/ -lpf 10000"
- 根据 cluster-name 找到默认位置的 yaml 文件,获取
datanode_servers
配置信息 - datanode1 执行元数据导入import-schema.sh
其中 -param的参数如下:
命令 | 功能 | 是否必填 |
---|---|---|
-s | 指定想要导入的数据文件,这里可以指定文件或者文件夹。如果指定的是文件夹,将会把文件夹中所有的后缀为csv的文件进行批量导入。 | 是 |
-fd | 指定一个目录来存放导入失败的文件,如果没有指定这个参数,失败的文件将会被保存到源数据的目录中,文件名为是源文件名加上.failed的后缀。 | 否 |
-lpf | 用于指定每个导入失败文件写入数据的行数,默认值为10000 | 否 |
集群元数据导出
iotdbctl cluster exportschema default_cluster -N datanode1 -param "-t ./ -pf ./pattern.txt -lpf 10 -t 10000"
- 根据 cluster-name 找到默认位置的 yaml 文件,获取
datanode_servers
配置信息 - datanode1 执行元数据导入export-schema.sh
其中 -param的参数如下:
命令 | 功能 | 是否必填 |
---|---|---|
-t | 为导出的CSV文件指定输出路径 | 是 |
-path | 指定导出元数据的path pattern,指定该参数后会忽略-s参数例如:root.stock.** | 否 |
-pf | 如果未指定-path,则需指定该参数,指定查询元数据路径所在文件路径,支持 txt 文件格式,每个待导出的路径为一行。 | 否 |
-lpf | 指定导出的dump文件最大行数,默认值为10000。 | 否 |
-timeout | 指定session查询时的超时时间,单位为ms | 否 |
集群部署工具样例介绍
在集群部署工具安装目录中config/example 下面有3个yaml样例,如果需要可以复制到config 中进行修改即可
名称 | 说明 |
---|---|
default_1c1d.yaml | 1个confignode和1个datanode 配置样例 |
default_3c3d.yaml | 3个confignode和3个datanode 配置样例 |
default_3c3d_grafa_prome | 3个confignode和3个datanode、Grafana、Prometheus配置样例 |
数据文件夹概览工具
IoTDB数据文件夹概览工具用于打印出数据文件夹的结构概览信息,工具位置为 tools/tsfile/print-iotdb-data-dir。
用法
- Windows:
.\print-iotdb-data-dir.bat <IoTDB数据文件夹路径,如果是多个文件夹用逗号分隔> (<输出结果的存储路径>)
- Linux or MacOs:
./print-iotdb-data-dir.sh <IoTDB数据文件夹路径,如果是多个文件夹用逗号分隔> (<输出结果的存储路径>)
注意:如果没有设置输出结果的存储路径, 将使用相对路径"IoTDB_data_dir_overview.txt"作为默认值。
示例
以Windows系统为例:
.\print-iotdb-data-dir.bat D:\github\master\iotdb\data\datanode\data
````````````````````````
Starting Printing the IoTDB Data Directory Overview
````````````````````````
output save path:IoTDB_data_dir_overview.txt
data dir num:1
143 [main] WARN o.a.i.t.c.conf.TSFileDescriptor - not found iotdb-common.properties, use the default configs.
|==============================================================
|D:\github\master\iotdb\data\datanode\data
|--sequence
| |--root.redirect0
| | |--1
| | | |--0
| |--root.redirect1
| | |--2
| | | |--0
| |--root.redirect2
| | |--3
| | | |--0
| |--root.redirect3
| | |--4
| | | |--0
| |--root.redirect4
| | |--5
| | | |--0
| |--root.redirect5
| | |--6
| | | |--0
| |--root.sg1
| | |--0
| | | |--0
| | | |--2760
|--unsequence
|==============================================================
TsFile概览工具
TsFile概览工具用于以概要模式打印出一个TsFile的内容,工具位置为 tools/tsfile/print-tsfile。
用法
- Windows:
.\print-tsfile-sketch.bat <TsFile文件路径> (<输出结果的存储路径>)
- Linux or MacOs:
./print-tsfile-sketch.sh <TsFile文件路径> (<输出结果的存储路径>)
注意:如果没有设置输出结果的存储路径, 将使用相对路径"TsFile_sketch_view.txt"作为默认值。
示例
以Windows系统为例:
.\print-tsfile.bat D:\github\master\1669359533965-1-0-0.tsfile D:\github\master\sketch.txt
````````````````````````
Starting Printing the TsFile Sketch
````````````````````````
TsFile path:D:\github\master\1669359533965-1-0-0.tsfile
Sketch save path:D:\github\master\sketch.txt
148 [main] WARN o.a.i.t.c.conf.TSFileDescriptor - not found iotdb-common.properties, use the default configs.
-------------------------------- TsFile Sketch --------------------------------
file path: D:\github\master\1669359533965-1-0-0.tsfile
file length: 2974
POSITION| CONTENT
-------- -------
0| [magic head] TsFile
6| [version number] 3
||||||||||||||||||||| [Chunk Group] of root.sg1.d1, num of Chunks:3
7| [Chunk Group Header]
| [marker] 0
| [deviceID] root.sg1.d1
20| [Chunk] of root.sg1.d1.s1, startTime: 1669359533948 endTime: 1669359534047 count: 100 [minValue:-9032452783138882770,maxValue:9117677033041335123,firstValue:7068645577795875906,lastValue:-5833792328174747265,sumValue:5.795959009889246E19]
| [chunk header] marker=5, measurementID=s1, dataSize=864, dataType=INT64, compressionType=SNAPPY, encodingType=RLE
| [page] UncompressedSize:862, CompressedSize:860
893| [Chunk] of root.sg1.d1.s2, startTime: 1669359533948 endTime: 1669359534047 count: 100 [minValue:-8806861312244965718,maxValue:9192550740609853234,firstValue:1150295375739457693,lastValue:-2839553973758938646,sumValue:8.2822564314572677E18]
| [chunk header] marker=5, measurementID=s2, dataSize=864, dataType=INT64, compressionType=SNAPPY, encodingType=RLE
| [page] UncompressedSize:862, CompressedSize:860
1766| [Chunk] of root.sg1.d1.s3, startTime: 1669359533948 endTime: 1669359534047 count: 100 [minValue:-9076669333460323191,maxValue:9175278522960949594,firstValue:2537897870994797700,lastValue:7194625271253769397,sumValue:-2.126008424849926E19]
| [chunk header] marker=5, measurementID=s3, dataSize=864, dataType=INT64, compressionType=SNAPPY, encodingType=RLE
| [page] UncompressedSize:862, CompressedSize:860
||||||||||||||||||||| [Chunk Group] of root.sg1.d1 ends
2656| [marker] 2
2657| [TimeseriesIndex] of root.sg1.d1.s1, tsDataType:INT64, startTime: 1669359533948 endTime: 1669359534047 count: 100 [minValue:-9032452783138882770,maxValue:9117677033041335123,firstValue:7068645577795875906,lastValue:-5833792328174747265,sumValue:5.795959009889246E19]
| [ChunkIndex] offset=20
2728| [TimeseriesIndex] of root.sg1.d1.s2, tsDataType:INT64, startTime: 1669359533948 endTime: 1669359534047 count: 100 [minValue:-8806861312244965718,maxValue:9192550740609853234,firstValue:1150295375739457693,lastValue:-2839553973758938646,sumValue:8.2822564314572677E18]
| [ChunkIndex] offset=893
2799| [TimeseriesIndex] of root.sg1.d1.s3, tsDataType:INT64, startTime: 1669359533948 endTime: 1669359534047 count: 100 [minValue:-9076669333460323191,maxValue:9175278522960949594,firstValue:2537897870994797700,lastValue:7194625271253769397,sumValue:-2.126008424849926E19]
| [ChunkIndex] offset=1766
2870| [IndexOfTimerseriesIndex Node] type=LEAF_MEASUREMENT
| <s1, 2657>
| <endOffset, 2870>
||||||||||||||||||||| [TsFileMetadata] begins
2891| [IndexOfTimerseriesIndex Node] type=LEAF_DEVICE
| <root.sg1.d1, 2870>
| <endOffset, 2891>
| [meta offset] 2656
| [bloom filter] bit vector byte array length=31, filterSize=256, hashFunctionSize=5
||||||||||||||||||||| [TsFileMetadata] ends
2964| [TsFileMetadataSize] 73
2968| [magic tail] TsFile
2974| END of TsFile
---------------------------- IndexOfTimerseriesIndex Tree -----------------------------
[MetadataIndex:LEAF_DEVICE]
└──────[root.sg1.d1,2870]
[MetadataIndex:LEAF_MEASUREMENT]
└──────[s1,2657]
---------------------------------- TsFile Sketch End ----------------------------------
解释:
- 以"|"为分隔,左边是在TsFile文件中的实际位置,右边是梗概内容。
- "|||||||||||||||||||||"是为增强可读性而添加的导引信息,不是TsFile中实际存储的数据。
- 最后打印的"IndexOfTimerseriesIndex Tree"是对TsFile文件末尾的元数据索引树的重新整理打印,便于直观理解,不是TsFile中存储的实际数据。
TsFile Resource概览工具
TsFile resource概览工具用于打印出TsFile resource文件的内容,工具位置为 tools/tsfile/print-tsfile-resource-files。
用法
- Windows:
.\print-tsfile-resource-files.bat <TsFile resource文件所在的文件夹路径,或者单个TsFile resource文件路径>
- Linux or MacOs:
./print-tsfile-resource-files.sh <TsFile resource文件所在的文件夹路径,或者单个TsFile resource文件路径>
示例
以Windows系统为例:
.\print-tsfile-resource-files.bat D:\github\master\iotdb\data\datanode\data\sequence\root.sg1\0\0
````````````````````````
Starting Printing the TsFileResources
````````````````````````
147 [main] WARN o.a.i.t.c.conf.TSFileDescriptor - not found iotdb-common.properties, use the default configs.
230 [main] WARN o.a.iotdb.db.conf.IoTDBDescriptor - Cannot find IOTDB_HOME or IOTDB_CONF environment variable when loading config file iotdb-common.properties, use default configuration
231 [main] WARN o.a.iotdb.db.conf.IoTDBDescriptor - Couldn't load the configuration iotdb-common.properties from any of the known sources.
233 [main] WARN o.a.iotdb.db.conf.IoTDBDescriptor - Cannot find IOTDB_HOME or IOTDB_CONF environment variable when loading config file iotdb-datanode.properties, use default configuration
237 [main] WARN o.a.iotdb.db.conf.IoTDBDescriptor - Couldn't load the configuration iotdb-datanode.properties from any of the known sources.
Analyzing D:\github\master\iotdb\data\datanode\data\sequence\root.sg1\0\0\1669359533489-1-0-0.tsfile ...
Resource plan index range [9223372036854775807, -9223372036854775808]
device root.sg1.d1, start time 0 (1970-01-01T08:00+08:00[GMT+08:00]), end time 99 (1970-01-01T08:00:00.099+08:00[GMT+08:00])
Analyzing the resource file folder D:\github\master\iotdb\data\datanode\data\sequence\root.sg1\0\0 finished.
.\print-tsfile-resource-files.bat D:\github\master\iotdb\data\datanode\data\sequence\root.sg1\0\0\1669359533489-1-0-0.tsfile.resource
````````````````````````
Starting Printing the TsFileResources
````````````````````````
178 [main] WARN o.a.iotdb.db.conf.IoTDBDescriptor - Cannot find IOTDB_HOME or IOTDB_CONF environment variable when loading config file iotdb-common.properties, use default configuration
186 [main] WARN o.a.i.t.c.conf.TSFileDescriptor - not found iotdb-common.properties, use the default configs.
187 [main] WARN o.a.iotdb.db.conf.IoTDBDescriptor - Couldn't load the configuration iotdb-common.properties from any of the known sources.
188 [main] WARN o.a.iotdb.db.conf.IoTDBDescriptor - Cannot find IOTDB_HOME or IOTDB_CONF environment variable when loading config file iotdb-datanode.properties, use default configuration
192 [main] WARN o.a.iotdb.db.conf.IoTDBDescriptor - Couldn't load the configuration iotdb-datanode.properties from any of the known sources.
Analyzing D:\github\master\iotdb\data\datanode\data\sequence\root.sg1\0\0\1669359533489-1-0-0.tsfile ...
Resource plan index range [9223372036854775807, -9223372036854775808]
device root.sg1.d1, start time 0 (1970-01-01T08:00+08:00[GMT+08:00]), end time 99 (1970-01-01T08:00:00.099+08:00[GMT+08:00])
Analyzing the resource file D:\github\master\iotdb\data\datanode\data\sequence\root.sg1\0\0\1669359533489-1-0-0.tsfile.resource finished.