如何配置单个多路径 FC 移动设备有哪些

H3Cloud CMP云管理平台 部署指导-5W100_正文-新华三集团-H3C
H3Cloud云管理平台安装安装指导
H3Cloud CMP云管理平台 部署指导-5W100
&&(3.21 MB)
docurl=/cn/Service/Document_Software/Document_Center/H3Cloud/Catalog/H3Cloud_GLPT/H3Cloud_CMP/Installation/Installation_Manual/H3Cloud_CMP_IG-5W100/_0.htm
H3Cloud CMP云管理平台(以下简称H3Cloud CMP)是H3C公司采用微服务架构设计和开发的一款多云统一管理平台产品。本文档将对如何部署H3Cloud CMP产品进行详细介绍。
H3Cloud CMP目前支持两种部署模式所示。
服务器类型
服务器数量
·&&&&&由于单机模式不支持高可用,因此H3C不建议在正式的生产环境中采用单机模式部署。
·&&&&&为了避免遇到性能问题,H3C建议将虚拟机形式的集群节点分布到不同的虚拟化主机上。
H3Cloud CMP的标准组网方案包括单机模式组网方案和集群模式组网方案,相应的介绍如和所示。
Master节点,H3Cloud CMP服务器角色之一,负责H3Cloud CMP组件的部署
Cluster节点,H3Cloud CMP服务器角色之一,可以与Master节点共同组成H3Cloud CMP服务器集群
H3Cloud CMP服务器集群
由H3Cloud CMP服务器构成的集群,集群中的服务器角色包括Master节点和Cluster节点
用户访问和管理H3Cloud CMP时使用网络,也是H3Cloud CMP与其他云业务组件通讯的网络
H3Cloud CMP服务器集群中各节点互相通讯时使用的网络
H3Cloud CMP连接存储设备时使用的网络
管理网络、集群网络和存储网络在一定条件下可合并为同一网络,具体的介绍和说明请参考下一节。
H3Cloud CMP的运行环境如所示。
8核*2(单核&=2.0GHz)
8核*2(单核&=2.0GHz)
本地磁盘容量
1Gbps*1或1Gbps*2(双网卡绑定)
1Gbps*1或1Gbps*2(双网卡绑定)
1Gbps*1或1Gbps*2(双网卡绑定)
1Gbps*1或1Gbps*2(双网卡绑定)
适配共享存储类型
适配共享存储类型
共享存储类型
(集群模式)
iSCSI、FC或FCoE
共享存储卷
(集群模式)
H3Cloudos-system-perf:50G
postgresql:80G
CentOS 7.2
Google Chrome 46及以上或Mozilla Firefox 43及以上
·&&&&&使用物理机部署H3Cloud CMP时,本地磁盘容量是指RAID后容量,建议的RAID级别为10;使用虚拟机部署H3Cloud CMP时,本地磁盘的可靠性由虚拟化平台保证,H3Cloud CMP不做特殊要求。
·&&&&&采用集群模式部署且H3Cloud CMP访问量不高时,H3Cloud CMP服务器集群的管理网络和集群网络可配置为同一网络。
·&&&&&对于使用iSCSI类型共享存储的场景,现场实施人员在评估访问量和数据量后可将管理网络、集群网络和存储网络配置为同一网络。
·&&&&&管理网卡和集群网卡数量的基础要求为1,如果要配置双网卡绑定,则需要将网卡数量乘以2。
·&&&&&共享存储卷仅在采用集群模式部署时需要,单机模式部署时无需准备。
·&&&&&H3Cloud CMP整合了CentOS 7.2操作系统,用户无需单独准备。安装前请先咨询服务器供应商“服务器及相关配件(如HBA卡、RAID卡、网卡等)是否支持CentOS 7.2版本”,不支持的服务器可能会造成安装失败。
H3Cloud CMP的部署流程如所示,各步骤的说明如所述。
完成相应的检查和确认工作,以降低部署过程中遇到问题的可能性
安装H3Cloud CMP 服务器集群节点
安装H3Cloud CMP服务器集群中的Master节点和Cluster节点
挂载存储卷
挂载存储卷至Master节点和Cluster节点
部署H3Cloud CMP服务组件
组建H3Cloud CMP服务器集群并自动化部署H3Cloud CMP服务组件
业务系统联调
完成H3Cloud CMP与云管理平台联调。
·&&&&&如果要配置存储多路径,则需在“挂载存储卷”步骤中执行相关操作。
·&&&&&如果要配置双网卡绑定,则需在“部署H3Cloud CMP服务组件”步骤后执行相关操作。
安装H3Cloud CMP服务器集群节点前,请联系相关人员获取服务器的厂商、型号、相关配件、管理系统IP(如iLO、HDM等)等信息,并确认或检查以下内容:
·&&&&&检查服务器配置是否满足H3Cloud CMP运行环境中的最低配置要求(请参见),不满足最低配置要求的服务器不能通过检查。
·&&&&&确认服务器及相关配件(如HBA卡、RAID卡、网卡等)是否支持CentOS 7.2版本,不支持的服务器及相关配件可能会造成安装失败。
·&&&&&确认服务器上是否存在需要备份的数据,如果有请联系相关人员将数据迁移至其他设备。
·&&&&&检查服务器本地时间是否正确,如不正确请及时修改服务器本地时间,部署完成后再修改系统时间会造成部分H3Cloud CMP服务组件运行异常。
安装H3Cloud CMP服务器集群节点前,请联系相关人员获取共享存储的类型信息并确认以下内容:
·&&&&&确认存储卷的容量可以满足H3Cloud CMP运行环境中的要求(请参见),不满足要求的存储卷会造成软件运行故障。
·&&&&&确认存储卷挂载到服务器时是否需要额外的软件或配置,是否有需要注意的事项。
·&&&&&确认存储卷中是否存在需要备份的数据,如果有请联系相关人员将数据迁移至其他设备。
安装H3Cloud CMP服务器集群节点前,请联系相关人员为各节点规划IP地址等信息。各节点需准备的IP地址信息包括:
·&&&&&管理网IP:必选,准备IP地址、掩码、网关信息
·&&&&&集群网IP:必选,准备IP地址、掩码信息
·&&&&&存储网IP:可选,准备IP地址、掩码信息,并且仅在使用iSCSI类型共享存储时准备
2.4& 安装盘准备
安装H3Cloud CMP服务器节点前,请准备好H3Cloud CMP的ISO安装文件,ISO安装文件的名称为:H3CloudCMP-E11xx.iso,xx为版本号。
部署完H3Cloud CMP服务组件后,现场实施人员还需要完成H3Cloud CMP与云管理平台的联调才能使用全部功能,联调时需要准备的内容包括:
表2-1 云管理平台访问参数
H3Cloud OS
IP地址、端口、管理员登录名、密码
·&&&&&单机模式仅需安装一个Master节点,集群模式需安装一个Master节点和两个Cluster节点。
·&&&&&安装H3Cloud CMP服务器时,FC存储卷会被自动过滤掉,目的是防止FC存储卷中的数据在安装节点时被破坏。
·&&&&&H3Cloud CMP使用GPT分区表,可支持大于2TB的本地磁盘。
·&&&&&如果需要配置网卡绑定,则应在部署完H3Cloud CMP服务组件后再进行Master和Cluster节点的网卡绑定配置。
H3Cloud CMP的服务器包括Master节点和Cluster节点两种角色,本章将介绍如何安装不同角色的节点。
H3Cloud CMP的ISO安装文件。
(2)&&&&&选择从光驱引导后,进入H3Cloud CMP安装向导界面,如所示。
Install H3Cloud”选项(缺省选项),按&Enter&键继续。对于只有一块本地磁盘且磁盘上不存在用户数据的情况,按&Enter&键后直接进入“INSTALLATION SUMMARY”界面;对于有多块本地磁盘或磁盘上存在用户数据的情况,按&Enter&键后会提示并询问多种信息,相关的处理方法请参考常见问题解答,处理完成后会进入“INSTALLATION SUMMARY”界面。“INSTALLATION SUMMARY”界面包括多个配置项,如所示,其中“SOFTWARE SELECTION”配置项和“NETWORK&HOST NAME”配置项需要具体配置,其他配置项使用缺省值即可。
SOFTWARE SELECTION”配置项,选择要安装的软件包,如所示。选择“H3Cloud Master Node”软件包,单击左上角的&Done&按钮完成配置并返回“INSTALLATION SUMMARY”界面。
(5)&&&&&点击“NETWORK&HOST NAME”配置项,弹出配置网络与主机名窗口,如所示。
(6)&&&&&在Host name文本框中配置服务器的主机名,且集群模式下三个节点的服务器主机名不能相同,注意不要使用“localhost”关键字。
(7)&&&&&选择要配置的网卡,单击&Configure&按钮弹出网卡配置窗口,如所示。
(8)&&&&&选择“General”选项卡,选中“Automatically connect to this network when it is available”选项,如所示。
(9)&&&&&选择“IPv4 Settings”选项卡,在“Method”下拉菜单中选择“Manual”选项,单击&Add&按钮,配置IPv4地址、掩码和网关,并选中“Require IPv4 addressing for this connection to complete”,单击&Save&按钮保存,如所示。
(10)&&&&&网络配置完成后,请将网络连接配置为ON状态(),如所示。单击左上角的&Done&按钮完成配置并返回“INSTALLATION SUMMARY”界面。
·&&&&&目前仅IPv4地址的配置有效,暂不支持IPv6地址。
·&&&&&配置IP地址时,可能会出现不能SAVE(保存)配置的情况,请删除当前配置后再重新配置。
·&&&&&如果管理网络和集群网络未使用同一网络,则管理网卡和集群网卡均须配置IP地址和掩码,网关请配置在管理网卡上。
(11)&&&&&“SOFTWARE SELECTION”配置项和“NETWORK&HOST NAME”配置项配置完成后,界面如所示,单击&Begin Installation&按钮开始安装。
(12)&&&&&安装过程如所示。
(13)&&&&&安装完成后系统自动重启。重启完成后的界面如所示。使用缺省用户名和密码(root/cloudos)即可登录H3Cloud CMP后台操作系统。
Cluster节点的安装与Master节点基本相同,区别仅在配置“SOFTWARE SELECTION”时需要选择“H3Cloud OS Cluster Node”软件包,如所示。
采用集群模式部署时,安装完Master节点和Cluster节点后,用户需要将存储卷挂载给各节点。本章将对挂载不同类型的存储卷进行简要介绍。
(1)&&&&&登录Master节点和Cluster操作系统,使用以下命令查看各服务器的InitiatorName(等号后面部分)并记录。
[root@h3cloud01
~]# cat /etc/iscsi/initiatorname.iscsi
InitiatorName= iqn.1994-05.com.redhat:bb87a141062
(2)&&&&&在存储设备上划分存储卷,并配置服务器与存储卷的映射关系。具体的配置方法请参看存储设备的使用文档,配置时会用到服务器的InitiatorName。
(3)&&&&&使用以下命令发现设备上的存储卷,其中IP地址为存储设备的访问地址,需要根据实际环境进行替换。如果存储设备上有多个可供发现的存储卷,则会返回多行。
[root@h3cloud01
~]# iscsiadm -m discovery -t sendtargets -p 172.7.0.12
172.7.0.12:3260,1 iqn.2003-10.com.lefthandnetworks:cloud-storage-zcz:18951:cmp-postgre
(4)&&&&&使用以下命令查看已发现的存储卷。
[root@h3cloud01
~]# iscsiadm -m node
172.7.0.12:3260,1 iqn.2003-10.com.lefthandnetworks:cloud-storage-zcz:18951:cmp-postgre
(5)&&&&&确认无误后使用以下命令登录存储设备并将存储卷挂载到本地。
[root@h3cloud01 ~]# iscsiadm -m node
Logging in to [iface: default, target: iqn.2003-10.com.lefthandnetworks:cloud-storage-zcz:18951:cmp-postgre, portal: 172.7.0.12,3260]
(multiple)
Login to [iface: default, target: iqn.2003-10.com.lefthandnetworks:cloud-storage-zcz:18951:cmp-postgre, portal: 172.7.0.12,3260] successful.
(6)&&&&&使用以下命令查看存储卷映射到系统本地中的磁盘,如/dev/sdb。
[root@h3cloud01
~]# fdisk -l
/dev/vda: 536.9 GB,
= sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk label type: gpt
#&&&&&&&& Start&&&&&&&&& End&&& Size& Type&&&& &&&&&&&Name
&1&&&&&&&&&& 34&&&&&&& 49151&&&& 24M& BIOS boot parti primary
&2&&&&&&& 49152&&&&&& 458751&&& 200M& Microsoft basic primary
&3&&&&&& 458752&&&&&& 868351&&& 200M& Microsoft basic primary
&4&&&&&& 868352&& & 499.6G& Linux LVM&&&&&&
/dev/vdb: 214.7 GB,
= sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
/dev/mapper/centos-root: 207.8 GB,
= sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
/dev/mapper/centos-swap: 16.9 GB,
= sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
/dev/sda: 53.7 GB,
= sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
/dev/sdb: 85.9 GB,
= sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
(7)&&&&&使用以下命令查看哪些磁盘为共享存储。
[root@h3cloud01
~]# ll /dev/disk/by-path
lrwxrwxrwx 1 root root 9 Nov& 8 14:00 ip-172.7.0.12:3260-iscsi-iqn.2003-10.com.lefthandnetworks:cloud-storage-zcz:18947:cmp-perf-lun-0
-& ../../sda
lrwxrwxrwx 1 root root 9 Nov& 8 14:00 ip-172.7.0.12:3260-iscsi-iqn.2003-10.com.lefthandnetworks:cloud-storage-zcz:18951:cmp-postgre-lun-0
-& ../../sdb
lrwxrwxrwx 1 root root 9 Nov& 8 11:33 pci-.1-ata-1.0 -& ../../sr0
(8)&&&&&使用以下命令为挂载后的共享存储卷创建ext4文件系统。
[root@h3cloud01
~]# mkfs.ext4 /dev/sdb
mke2fs 1.42.9 (28-Dec-2013)
/dev/sdb is entire device, not just one partition!
Proceed anyway? (y,n) y
Filesystem label=
OS type: Linux
Block size=4096 (log=2)
Fragment size=4096 (log=2)
Stride=0 blocks, Stripe width=0 blocks
6553600 inodes,
1310720 blocks (5.00%) reserved for the super user
First data block=0
Maximum filesystem blocks=
800 block groups
32768 blocks per group, 32768 fragments per group
8192 inodes per group
Superblock backups stored on blocks:
Allocating group tables: done&&&&&&&&&&&&&&&&&&&&&&&&&&&
Writing inode tables: done&&&&&&&&&&&&&&&&&&&&&&&&&&&
Creating journal (32768 blocks): done
Writing superblocks and filesystem accounting information: done&&
·&&&&&该命令会将整个存储卷划分为一个分区并格式化(交互时输入y表示同意)。
·&&&&&重复执行mkfs.ext4
/dev/sdx命令,x代表存储卷映射到系统本地中的磁盘。
·&&&&&步骤(1)至步骤(5)需要在所有节点下都执行一次。
·&&&&&集群环境下需在所有服务器上执行挂载存储卷操作,只需在一台服务器上执行格式化操作。
(9)&&&&&存储卷挂载完成。
(1)&&&&&登录Master节点和Cluster节点操作系统,使用以下命令查看各服务器FCoE接口的WWN并记录,其中X会根据存储网卡的规格有所不同。
[root@h3cloud01 ~]# cat
/sys/class/fc_host/hostX/port_name
(2)&&&&&在存储设备上划分存储卷,并配置服务器与存储卷的映射关系。具体的配置方法请参看存储设备的使用文档,配置时会用到服务器FCoE接口的WWN。
(3)&&&&&在各节点中使用以下命令配置FCoE接口的DCBX特性,其中ens1f0为FCoE接口的编号。
[root@h3cloud01 ~]# cd
/etc/fcoe/
[root@h3cloud01 ~]# cp cfg-ethx cfg-ens1f0
·&&&&&DCBX特性需要和FCoE交换机配合使用。
·&&&&&接口需要配置为开机自动启动,避免服务器重启后接口不能UP。
(4)&&&&&在各节点中使用以下命令启动lldpad服务,并设置为开机后自动启动。
[root@h3cloud01 ~]# systemctl start lldpad
[root@h3cloud01 ~]# systemctl enable lldpad
(5)&&&&&在各节点中使用以下命令启动fcoe服务,并设置为开机后自动启动。
[root@h3cloud01 ~]# systemctl start fcoe
[root@h3cloud01 ~]# systemctl enable fcoe
fcoe服务启动后,服务器会向FCoE交换机获取存储卷信息。
(6)&&&&&在Master节点中使用以下命令查看存储卷映射到系统本地中的磁盘,如/dev/sdb。
[root@h3cloud01 ~]# fdisk -l
(7)&&&&&在Master节点中使用mkfs.ext4命令将分区格式化。
[root@h3cloud01 ~]# mkfs.ext4
·&&&&&集群环境下需在所有服务器上执行挂载FCoE存储卷操作,只需在一台服务器上执行格式化操作。
·&&&&&如果存储网络为多路径组网方式,则还需要配置存储多路径。
Master节点和Cluster操作系统,使用以下命令查看各服务器FC接口的WWN并记录,其中X会根据存储网卡的规格有所不同。
[root@h3cloud01 ~]# cat
/sys/class/fc_host/hostX/port_name
(2)&&&&&在存储设备上划分存储卷,并配置服务器与存储卷的映射关系。具体的配置方法请参看存储设备的使用文档,配置时会用到服务器FC接口的WWN。
(3)&&&&&在各节点上使用以下命令或重启服务器来扫描FC存储卷,服务器会自动扫描到挂载的FC存储卷,其中X会根据存储网卡的规格有所不同。
[root@h3cloud01 ~]# echo
&1& & /sys/class/fc_host/hostX/issue_lip
(4)&&&&&使用以下命令查看存储卷映射到系统本地中的磁盘,如/dev/sdb。
[root@h3cloud01 ~]# fdisk -l
(5)&&&&&使用mkfs.ext4命令将分区格式化。
[root@h3cloud01 ~]# mkfs.ext4
·&&&&&集群环境下需在所有服务器上执行挂载FC存储卷操作,只需在一台服务器上执行格式化操作。
·&&&&&如果存储网络为多路径组网方式,则还需要配置存储多路径。
以下配置需要在安装操作系统之后、部署H3Cloud CMP之前进行。
H3Cloud CMP的后台操作系统为CentOS 7.2,现场实施人员可使用Linux的multipath或存储设备配套的多路径方案配置存储多路径。本文仅对使用multipath配置存储多路径的方法进行介绍。
(1)&&&&&登录Master节点和Cluster操作系统,执行存储卷挂载操作后使用以下命令配置Linux内核加载multipath模块。
[root@h3cloud01 ~]# modprobe dm_multipath
[root@h3cloud01 ~]# modprobe dm-round-robin
(2)&&&&&使用以下命令新建并开始编辑multipath.conf配置文件。
[root@h3cloud01 ~]# vim /etc/multipath.conf
(3)&&&&&在文件中增加以下内容并保存。
&&&&&&适用于普通iSCSI存储
defaults {
&&&&&&& user_friendly_names &&&&yes
&&&&&&& path_selector&&&&&&&&&&
&round-robin 0&
&&&&&&& path_grouping_policy &&&multibus
&&&&&&& failback&&&&&&&&&&&&&&& manual
&&&&&&& rr_weight&&&&&&&&&&&&&& priorities
&&&&&&& no_path_retry&&&&&&&&&& 5
&&&&&&适用于HPE 3Par FC存储
defaults {
&&&&&&& find_multipaths &&&&&&&&yes
&&&&&&& user_friendly_names &&&&yes
&&&&&&& polling_interval&&&&&&& 10
&&&&&&& path_selector&&&&&&&&&&
&round-robin 0&
&&&&&&& path_grouping_policy&&& multibus
&&&&&&& path_checker&&&&&&&&&&& readsector0
&&&&&&& rr_min_io&&&&&&&&&&&&&& 100
&&&&&&& max_fds&&&&&&&&&&&&&&&& 8192
&&&&&&& rr_weight&&&&&&&&&&&&&& priorities
&&&&&&& failback&&&&&&&&&&&&&&& immediate
&&&&&&& no_path_retry&&&&&&&&&& fail
(4)&&&&&使用以下命令启动multipath服务。
[root@h3cloud01 ~]# systemctl start multipathd.service
(5)&&&&&使用以下命令查看存储卷的wwid(全球标识符),并记录。
[root@h3cloud01 ~]# multipath
mpathc (dc75adc84c94eb2e9bea16e)
dm-5 MSFT&&& ,Virtual HD&&&&&
size=80G features='1 queue_if_no_path' hwhandler='0' wp=rw
`-+- policy='round-robin 0'
prio=1 status=active
& |- 13:0:0:0 sdk 8:160 active ready running
& `- 14:0:0:0 sdl 8:176 active ready running
mpathf (dc75adc9d97fdac4df9257a)
dm-3 MSFT&&& ,Virtual HD&&&&&
size=50G features='1 queue_if_no_path' hwhandler='0' wp=rw
`-+- policy='round-robin 0'
prio=1 status=active
& |- 11:0:0:0 sdi 8:128 active ready running
& `- 7:0:0:0& sdd 8:48& active ready running
(6)&&&&&再次修改multipath配置文件,并为存储卷增加别名配置。
multipaths {
&&&&&& multipath {
&&&&&&&&&&&&&& wwid&&&&&&&&&&&&&&&&&&& dc75adc84c94eb2e9bea16e
&&&&&&&&&&&&&& alias&&&&&&&&&&&&&&&&&& PostgreSQL
&&&&&& multipath {
&&&&&&&&&&&&&& wwid&&&&&&&&&&&&&&&&&&& dc75adc9d97fdac4df9257a
&&&&&&&&&&&&&& alias&&&&&&&&&&&&&&&&&& Perf
(7)&&&&&使用以下命令启动multipath服务
[root@h3cloud01 ~]# systemctl restart multipathd.service
(8)&&&&&查看存储多路径配置效果
[root@h3cloud01 ~]# multipath
PostgreSQL
(dc75adc84c94eb2e9bea16e) dm-5 MSFT&&& ,Virtual HD&&&&&
size=80G features='1 queue_if_no_path' hwhandler='0' wp=rw
`-+- policy='round-robin 0'
prio=1 status=active
& |- 13:0:0:0 sdk 8:160 active ready running
& `- 14:0:0:0 sdl 8:176 active ready running
(dc75adc9d97fdac4df9257a) dm-3 MSFT&&& ,Virtual HD&&&&&
size=50G features='1 queue_if_no_path' hwhandler='0' wp=rw
`-+- policy='round-robin 0'
prio=1 status=active
& |- 11:0:0:0 sdi 8:128 active ready running
& `- 7:0:0:0& sdd 8:48& active ready running
(9)&&&&&在两个Cluster节点中进行存储多路径配置操作,配置方法与Master节点相同。
(10)&&&&&对所有多路径存储卷执行格式化。
[root@masternode mapper]#
mkfs.ext4 /dev/mapper/Perf
mke2fs 1.42.9 (28-Dec-2013)
Filesystem label=
OS type: Linux
Block size=4096 (log=2)
Fragment size=4096 (log=2)
Stride=0 blocks, Stripe width=0 blocks
6553600 inodes,
1310720 blocks (5.00%)
reserved for the super user
First data block=0
Maximum filesystem blocks=
800 block groups
32768 blocks per group, 32768 fragments per group
8192 inodes per group
Superblock backups stored on blocks:
Allocating group tables: done&&&&&&&&&&&&&&&&&&&&&&&&&&&
Writing inode tables: done&&&&&&&&&&&&&&&&&&&&&&&&&&&
Creating journal (32768 blocks): done
Writing superblocks and filesystem accounting information: done&&
[root@masternode mapper]#
mkfs.ext4 /dev/mapper/PostgreSQL
mke2fs 1.42.9 (28-Dec-2013)
Filesystem label=
OS type: Linux
Block size=4096 (log=2)
Fragment size=4096 (log=2)
Stride=0 blocks, Stripe width=0 blocks
5242880 inodes,
1048576 blocks (5.00%)
reserved for the super user
First data block=0
Maximum filesystem blocks=
640 block groups
32768 blocks per group, 32768 fragments per group
8192 inodes per group
Superblock backups stored on blocks:
Allocating group tables: done&&&&&&&&&&&&&&&&&&&&&&&&&&&
Writing inode tables: done&&&&&&&&&&&&&&&&&&&&&&&&&&&
Creating journal (32768 blocks): done
Writing superblocks and filesystem accounting information: done&&
·&&&&&multipath.conf配置文件的修改方法请务必咨询相关存储设备厂商,不同厂商的配置项取值存在较大差异。
·&&&&&多路径存储卷格式化操作只需要在主节点上执行一次即可。
·&&&&&由于更改了存储卷的名称,在配置存储卷之前,请使用/dev/mapper路径搜索并且选择正确的存储卷来进行安装部署配置。
部署H3Cloud CMP服务组件的过程中请勿刷新或关闭浏览器。
挂载完存储卷后,实施人员即可以开始部署H3Cloud CMP服务组件。本章将对如何部署H3Cloud CMP服务组件进行详细介绍。
(1)&&&&&启动浏览器,在地址栏中输入http://&Master节点IP地址&:9090打开H3Cloud安装部署服务登录页面,如所示。
安装部署服务
(2)&&&&&输入缺省的用户名和密码:admin/admin,单击&登录&按钮进入安装部署服务首页,如所示。
(3)&&&&&点击H3Cloud安装部署服务首页中的“加号”图标。
(4)&&&&&弹出安装模式选择窗口,如所示,选择“单机模式”。
(5)&&&&&弹出组件安装窗口,选择所有组件,如所示,单击&下一步&按钮。
(6)&&&&&进入配置信息确认页面,如所示,确认无误后单击&开始部署&按钮。
(7)&&&&&开始部署业务组件,如所示。
(8)&&&&&部署成功后,如所示,单击&完成&按钮,返回安装部署服务首页。
(1)&&&&&启动浏览器,在地址栏中输入http://&Master节点IP地址&:9090打开H3Cloud安装部署服务登录页面,如所示。
安装部署服务
(2)&&&&&输入缺省的用户名和密码:admin/admin,并单击&登录&按钮进入安装部署服务首页,如所示。
(3)&&&&&点击“加号”图标,弹出安装模式选择窗口,如所示,选择“集群模式”。
(4)&&&&&启动H3Cloud CMP部署向导,如所示。
(5)&&&&&在集群IP的下拉菜单中,选择Master节点的集群IP地址。
(6)&&&&&如所示,在“增加已安装好操作系统的节点”区域中,输入Cluster节点的集群IP地址、用户名和密码,单击&增加节点&按钮,将Cluster节点加入集群。
Cluster节点
必须保证Master节点IP和Cluster节点IP网络可达。
(7)&&&&&单击&下一步&按钮,进入网卡配置页面,确认和配置各节点网卡信息,如所示。配置完成后单击&下一步&按钮。
您可以选择是否复用集群、管理和存储网卡。勾选“集群、管理、存储共享网卡”选项后每个节点将使用一块网卡。
(8)&&&&&配置H3Cloud CMP的虚服务IP地址,如所示,单击&下一步&按钮。
(9)&&&&&选中所有组件,如所示,单击&下一步&按钮。
(10)&&&&&进入配置共享存储页面,如所示。输入共享存储搜索路径(例如/dev/disk/by-path)并单击&查询&按钮,搜索到共享存储后依次选择相应存储卷。完成后单击&下一步&按钮。
·&&&&&H3Cloud CMP部署在物理服务器上时,请参考存储厂商的配置建议设置搜索路径,确保存储设备名称或编号不会发生变化。推荐使用的搜索路径为/dev/disk/by-path。
·&&&&&若在部署前进行了存储多路径配置,则需要使用的搜索路径为/dev/mapper,并根据多路径配置中的别名选择正确的存储卷。若选择错误的存储卷进行配置,将会在部署中产生错误。
(11)&&&&&进入配置信息确认页面,如所示,确认无误后单击&开始部署&按钮。
(12)&&&&&部署H3Cloud CMP,如所示。
(13)&&&&&部署成功后,如所示,单击&完成&按钮,返回H3Cloud安装部署服务首页。
(1)&&&&&启动浏览器,在地址栏中输入http://&虚服务IP&,打开登录页面,如所示。
(2)&&&&&输入用户名和密码,单击&登录&按钮,登录H3Cloud CMP。
·&&&&&管理员的缺省用户名密码为admin/cloudos。
·&&&&&集群部署时,浏览器中输入的IP地址为部署时指定的虚服务IP地址。
·&&&&&浏览器仅支持分辨率100%缩放。
H3Cloud CMP中的各组件在部署完成后还需进行License注册操作才能正常使用。
6.1& 注册过程介绍
申请License文件后,如果设备信息文件对应的服务器出现网卡变更(包括禁用网卡、新网卡启用、网卡更换、旧网卡损坏等)、CPU更换或硬盘更换等硬件信息的变更,将会导致License文件失效。
H3Cloud CMP的软件注册过程如所示。
软件注册过程
获取设备信息文件
获取License server的设备信息文件
申请License文件
登录到H3C官方网站进行License首次激活申请或扩容激活申请,获取License文件
获取License授权
·&&&&&上传License文件至License server
·&&&&&在H3Cloud CMP上连接License server,获取License授权
(1)&&&&&登录License server。
(2)&&&&&在左导航树中单击[授权管理/激活文件管理]菜单项,进入激活文件管理页面。
(3)&&&&&单击激活文件列表上部的&导出DID&按钮,获取License server的设备信息文件。
DID设备信息文件如果使用中文名称,则申请到的授权文件会出现解析失败的情况,因此建议使用默认文件名称。
获取到设备信息文件后,请登录H3C中文网站申请License:
·&&&&&如果是首次申请License文件,具体步骤请查看“License首次激活申请”。
·&&&&&如果此前已申请过License文件,又需要对License进行扩容,具体步骤请查看“License扩容激活申请”。
首次激活申请
(1)&&&&&访问H3C公司中文网站,依次点击“服务-& 授权业务-& License首次激活申请”,进入“License首次激活申请”页面。
(2)&&&&&根据使用的授权方式,在“产品分类”中选择“云应用_H3Cloud CMP”。
(3)&&&&&请按照的说明,在页面上填写相关信息。
输入授权码
请上传此前获取到的设备信息文件
请填写您的用户信息,其中带“*”的项目必填
(4)&&&&&请输入验证码并选中“已阅读并同意法律声明所述服务条款各项内容”选项。
(5)&&&&&单击&获取激活码(文件)&按钮,请将生成的License文件保存到本地PC待用。
扩容激活申请
(1)&&&&&访问H3C公司中文网站,依次点击“服务-& 授权业务-& License扩容激活申请”,进入“License扩容激活申请”页面。
(2)&&&&&根据使用的授权方式,在“产品分类”中选择“云应用_H3Cloud CMP”。
(3)&&&&&请按照的说明,在页面上填写相关信息。
上传服务器主机信息:需要上传此前获取到的设备信息文件
输入授权码
请填写您的用户信息,其中带“*”的项目必填
(4)&&&&&请输入验证码并选中“已阅读并同意法律声明所述服务条款各项内容”选项。
(5)&&&&&单击&获取激活码(文件)&按钮,请将生成的License文件保存到本地PC待用。
获取到License授权文件后,用户需先将文件上传至License server,然后再将H3Cloud CMP连接至License server。
上传License授权文件的具体步骤如下:
(1)&&&&&登录License server。
(2)&&&&&在左导航树中单击[授权管理/激活文件管理]菜单项,进入激活文件管理页面。
(3)&&&&&单击&安装激活文件&按钮,弹出上传激活文件窗口。
(4)&&&&&选择保存在本地的License文件。
(5)&&&&&单击&确定&按钮上传文件。上传成功后在激活文件管理页面会显示获取的授权信息。
连接License server的具体步骤如下:
(1)&&&&&登录H3Cloud CMP。
(2)&&&&&在顶部导航栏中单击[系统/许可]菜单项,进入授权管理页面。
(3)&&&&&在“License server配置”区域中配置License server的IP地址、端口号、用户名称和密码参数。
(4)&&&&&单击&连接&按钮连接至License server。连接成功后云平台会自动获取所有授权信息。
部署完H3Cloud CMP业务组件后,用户还需要完成H3Cloud CMP与第一个云平台的联调后才能使用全部功能。本章将以H3Cloud CMPH3Cloud OS云平台联调为例进行详细介绍。
与H3Cloud OS
·&&&&&联调开始前,H3Cloud OS需完成相应的初始化配置,包括可用域、网络规划和私有云等。H3Cloud OS的初始化配置如所述。详细配置请参见H3Cloud OS产品文档。
·&&&&&H3Cloud OS中新建的私有网络要与H3Cloud OS和H3Cloud CMP所在的管理网络互通。
初始化配置
配置H3Cloud OS与邮件系统、H3Cloud OS安装部署服务联动。
配置可用域
配置H3Cloud OS的计算可用域与存储可用域。
根据H3Cloud组网方案配置H3Cloud OS的网络自动化类型及参数。
管理服务目录
确定H3Cloud要提供的云服务,并通过系统参数启用或禁用相应的云服务。
配置资源规格
配置云用户在申请资源时可以选择的资源规格。
配置计费策略
根据配置的资源规格制定计费策略。
配置私有云
配置云基础设施的资源配额及提供服务时的计费策略。
(1)&&&&&登录H3Cloud CMP,弹出新增云服务商窗口。
(2)&&&&&配置H3Cloud OS云平台相关参数,如所示。
&&&&&&IP地址:H3Cloud OS云平台的服务IP地址。
&&&&&&端口号:H3Cloud OS对接H3Cloud OS云平台的9000端口。
&&&&&&协议:选择http或https协议连接H3Cloud OS服务。
&&&&&&云类型:选择“华三云”。
&&&&&&用户名:此处填写admin。
&&&&&&密码:H3Cloud OS的admin用户登录密码。
云平台相关参数
(3)&&&&&单击&确定&按钮完成操作。
本章将对H3Cloud CMP部署完成后的各种日常维护工作进行介绍。
H3Cloud CMP目前支持通过命令行方式进行数据备份,用户可联系H3C技术支持完成相关的备份操作。
H3Cloud CMP目前支持通过命令行方式进行系统升级,用户可联系H3C技术支持完成相关的升级操作。
9.1.1& 出现提示信息”Are you sure you want to erase ALL data on disk XXX? (y/N)”时应该如何处理?
解答:出现此提示信息的原因是因为服务器的磁盘上存在数据。XXX通常为服务器的磁盘标识如sda、vda等。
确认数据可以清除后,用户可在”Are you sure you want to erase ALL data on disk XXX? (y/N)”后输入”y”。并在”Warning!ALL data will be lost!continue?(y/N)”后再次输入”y”。
此时,H3Cloud OS会将目标磁盘格式化,格式化完成后进入。
·&&&&&请在格式化之前做好数据确认工作。
·&&&&&若在安装时不想格式化,可在确认界面中输入”N”,此时系统会自动重启。
图9-2 拒绝格式化磁盘
,Which of the detected hard drivers do you want to be used as the installation target?”时如何处理?
解答:出现此提示信息的原因是由于服务器的磁盘数量为多块。
&&&&&&如果服务器的磁盘数量为多块且目标磁盘上没有数据。此时,输入安装使用的目标磁盘,如vda,并按&Enter&键确认。目标磁盘将被格式化,格式化完成后进入。
&&&&&&如果服务器的磁盘数量为多块且目标磁盘上有数据。此时,输入安装使用的目标磁盘,如vda,并按&Enter&键确认。此时会提示用户“Are you sure you want to erase ALL data on disk vda? (y/n)”,请参考进行处理。
·&&&&&在中的两块磁盘vda与vdb,其中vda为有原始数据的磁盘,vdb为无数据的新磁盘。
时如何处理?
解答:这是由于安装H3Cloud CMP的目标磁盘空间不足500GB导致的。根据H3Cloud CMP的要求,目标磁盘的最小空间为500GB,请选择符合要求的磁盘安装H3Cloud CMP。
图9-5 磁盘空间不足500GB
CMP如何做双网卡绑定?
解答:H3Cloud CMP的后台操作系统为CentOS 7.2,用户可使用Linux的网卡绑定命令进行网卡绑定操作。
需要在H3Cloud CMP安装部署完成后再进行Master、Cluster节点的网卡绑定配置。
(1)&&&&&使用SSH客户端或控制台登录到Master、Cluster节点中。
(2)&&&&&在Master节点中使用以下命令停止H3Cloud CMP服务。
[root@masternode ~]# for rc in
`/opt/bin/kubectl --server 127.0.0.1:8888 get rc |grep -v CONTROLLER | awk -F '
' '{print $1}'| tr -d '\r'`;do /opt/bin/kubectl --server 127.0.0.1:8888 scale
--replicas=0 rc $done
Error from server: replicationcontrollers &NAME& not found
replicationcontroller
&aquarius-core-rc& scaled
replicationcontroller
&aries-core-rc& scaled
replicationcontroller
&cancer-core-rc& scaled
replicationcontroller
&cas-server-rc& scaled
replicationcontroller
&cider-portal-rc& scaled
replicationcontroller
&h3cloudcmp-core-rc1& scaled
replicationcontroller
&h3cloudcmp-core-rc2& scaled
replicationcontroller
&h3cloudcmp-core-rc3& scaled
replicationcontroller
&h3cloudcmp-h3-rc1& scaled
replicationcontroller
&h3cloudcmp-h3-rc2& scaled
replicationcontroller
&h3cloudcmp-h3-rc3& scaled
replicationcontroller
&leo-core-rc& scaled
replicationcontroller
&maxscalerc& scaled
replicationcontroller
&mha-manager& scaled
replicationcontroller
&milk-cdn-rc& scaled
replicationcontroller
&milk-rc& scaled
replicationcontroller
&mysql-node1& scaled
replicationcontroller
&mysql-node2& scaled
replicationcontroller
&mysql-node3& scaled
replicationcontroller
&parametcdrc& scaled
replicationcontroller
&pisces-core-rc& scaled
replicationcontroller
&postgresqlrc& scaled
replicationcontroller
&rabbit1rc& scaled
replicationcontroller
&rabbit2rc& scaled
replicationcontroller
&rabbit3rc& scaled
replicationcontroller
&redis-sentinel1& scaled
replicationcontroller
&redis-sentinel2& scaled
replicationcontroller
&redis-sentinel3& scaled
replicationcontroller
&redisrc1& scaled
replicationcontroller
&redisrc2& scaled
replicationcontroller
&redisrc3& scaled
replicationcontroller
&sagittarius-core-rc& scaled
replicationcontroller
&taurus-core-rc& scaled
replicationcontroller
&virgo-core-rc& scaled
You have mail in
/var/spool/mail/root
(3)&&&&&使用以下命令创建网卡聚合文件bond0。
[root@masternode ~]# vim
/etc/sysconfig/network-scripts/ifcfg-bond0
(4)&&&&&输入下列内容配置网卡聚合文件bond0。
DEVICE=bond0
IPADDR=172.10.120.236
NETMASK=255.255.0.0
GATEWAY=172.10.0.1
ONBOOT=yes
BOOTPROTO=none
USERCTL=no
NM_CONTROLLED=no
BONDING_OPTS=&miimon=100 mode=4&
此IP地址为当前节点的IP地址。
(5)&&&&&使用以下命令创建目录,并且备份即将修改成聚合网卡的网卡文件。
[root@masternode ~]# mkdir
/root/net_bak/
[root@masternode ~]# cp /etc/sysconfig/network-scripts/ifcfg-eth0
/root/net_bak/
[root@masternode ~]# cp
/etc/sysconfig/network-scripts/ifcfg-eth1 /root/net_bak/
如果是物理服务器的网卡,其网卡名称可能是eno或者是ens开头,请根据实际网卡名称备份配置文件。
(6)&&&&&使用以下命令配置聚合网卡内容。
[root@masternode ~]# vim /etc/sysconfig/network-scripts/ifcfg-eth0
TYPE=Ethernet
DEVICE=eth0
BOOTPROTO=none
ONBOOT=yes
MASTER=bond0
USERCTL=no
NM_CONTROLLED=no
[root@masternode ~]# vim
/etc/sysconfig/network-scripts/ifcfg-eth1
TYPE=Ethernet
DEVICE=eth1
BOOTPROTO=none
ONBOOT=yes
MASTER=bond0
USERCTL=no
NM_CONTROLLED=no
如果是物理服务器的网卡,其网卡名称可能是eno或者是ens开头,请根据实际网卡名称修改配置文件。
(7)&&&&&使用以下命令配置聚合网卡文件。
[root@masternode ~]# echo
&alias netdev-bond0 bonding& && /etc/modprobe.d/bonding.conf
(8)&&&&&使用以下命令查看聚合网卡文件内容。
[root@masternode ~]# cat
/etc/modprobe.d/bonding.conf
alias netdev-bond0 bonding
(9)&&&&&使用以下命令重启Network服务。
[root@masternode ~]# service network restart
Restarting network (via systemctl):&&&&&&&&&&&&&&&&&&&&&&&
&&&&&&如果Network服务重启失败或者绑定未生效,请先检查网卡配置是否正确,然后手动进入到iLO管理口或者控制台中执行如下命令(若重启网络服务生效,请跳过此步骤)。
[root@masternode ~]# ifdown bond0
[root@masternode ~]# ifup bond0
[root@masternode ~]# service network restart
Restarting network (via systemctl):&&&&&&&&&&&&&&&&&&&&&&&
有时候会报连接某个网卡的报错,此时再次执行一次
service network restart命令即可解决。
(10)&&&&&使用以下命令查看网卡聚合模式是否生效。
[root@masternode ~]#& cat
/sys/class/net/bond0/bonding/mode
(11)&&&&&使用以下命令查看网卡聚合状态。
[root@masternode ~]#& cat
/proc/net/bonding/bond0
Ethernet Channel Bonding Driver: v3.7.1 (April 27, 2011)
Bonding Mode: IEEE 802.3ad Dynamic link aggregation
Transmit Hash Policy: layer2
MII Status: up
MII Polling Interval (ms): 100
Up Delay (ms): 0
Down Delay (ms): 0
802.3ad info
LACP rate: slow
Min links: 0
Aggregator selection policy
(ad_select): stable
Active Aggregator Info:
Aggregator ID: 1
Number of ports: 1
Actor Key: 7
Partner Key: 1
Partner Mac Address: 00:00:00:00:00:00
Slave Interface: eth1
MII Status: up
Speed: 100 Mbps
Duplex: full
Link Failure Count: 0
Permanent HW addr: 0c:da:41:1d:d2:28
Slave queue ID: 0
Aggregator ID: 1
Actor Churn State: monitoring
Partner Churn State: monitoring
Actor Churned Count: 0
Partner Churned Count: 0
details actor lacp pdu:
&&& system priority: 65535
&&& port key: 7
&&& port priority: 255
&&& port number: 1
&&& port state: 77
details partner lacp pdu:
&&& system priority: 65535
&&& oper key: 1
&&& port priority: 255
&&& port number: 1
&&& port state: 1
Slave Interface: eth0
MII Status: up
Speed: Unknown
Duplex: Unknown
Link Failure Count: 0
Permanent HW addr: 0c:da:41:1d:67:67
Slave queue ID: 0
Aggregator ID: 2
Actor Churn State: monitoring
Partner Churn State: monitoring
Actor Churned Count: 0
Partner Churned Count: 0
details actor lacp pdu:
&&& system priority: 65535
&&& port key: 0
&&& port priority: 255
&&& port number: 2
&&& port state: 69
details partner lacp pdu:
&&& system priority: 65535
&&& oper key: 1
&&& port priority: 255
&&& port number: 1
&&& port state: 1
(12)&&&&&使用以下命令查看路由表,确认网卡聚合配置的IP是否正确。
[root@masternode ~]# route
Kernel IP routing table
Destination&&&& Gateway&&&&&&&& Genmask&&&&&&&& Flags Metric Ref&&& Use Iface
default&&&&&&&& 172.10.0.1&&&&& 0.0.0.0&&&&&&&& UG&&& 0&&&&& 0&&&&&&& 0 bond0
10.101.0.0&&&&& 0.0.0.0&&&&&&&& 255.255.0.0&&&& U&&&& 0&&&&& 0&&&&&&& 0 flannel.1
10.101.16.0&&&& 0.0.0.0&&& &&&&&255.255.255.0&& U&&&& 0&&&&& 0&&&&&&& 0 docker0
link-local&&&&& 0.0.0.0&&&&&&&& 255.255.0.0&&&& U&&&& 1073&& 0&&&&&&& 0 bond0
172.10.0.0&&&&& 0.0.0.0&&&&&&&& 255.255.0.0&&&& U&&&& 0&&&&& 0&&&&&&& 0 bond0
(13)&&&&&对两个Cluster节点重复执行步骤(3)至步骤(12)。
(14)&&&&&在Master节点中使用以下命令修改kube-flanneld配置文件,将该文件中的网卡名称修改为聚合网卡的名称。
[root@masternode ~]# vim /etc/sysconfig/kube-flanneld
#write by create_srv_envfile.sh
ETCD_CLIENT_PEM=/root/cfssl/172.10.120.236-client.pem
ETCD_CLIENT_KEY_PEM=/root/cfssl/172.10.120.236-client-key.pem
KUBE_LOGTOSTDERR=false
KUBE_LOG_LEVEL=4
KUBE_MASTER=https://172.10.120.236:2379
KUBE_IFACE=bond0
(15)&&&&&使用以下命令重启kube-flanneld与docker服务。
[root@masternode ~]# systemctl restart kube-flanneld.service
[root@masternode ~]# systemctl restart docker.service
(16)&&&&&对两个Cluster节点重复执行步骤(14)至步骤(15)。
(17)&&&&&在Master节点中执行以下命令启动H3Cloud CMP服务。
[root@masternode ~]# for rc in
`/opt/bin/kubectl --server 127.0.0.1:8888 get rc |grep -v CONTROLLER | awk -F '
' '{print $1}'| tr -d '\r'`;do /opt/bin/kubectl --server 127.0.0.1:8888 scale
--replicas=1 rc $done
Error from server: replicationcontrollers &NAME& not found
replicationcontroller
&aquarius-core-rc& scaled
replicationcontroller
&aries-core-rc& scaled
replicationcontroller
&cancer-core-rc& scaled
replicationcontroller
&cas-server-rc& scaled
replicationcontroller
&cider-portal-rc& scaled
replicationcontroller
&h3cloudcmp-core-rc1& scaled
replicationcontroller
&h3cloudcmp-core-rc2& scaled
replicationcontroller
&h3cloudcmp-core-rc3& scaled
replicationcontroller
&h3cloudcmp-h3-rc1& scaled
replicationcontroller
&h3cloudcmp-h3-rc2& scaled
replicationcontroller
&h3cloudcmp-h3-rc3& scaled
replicationcontroller
&leo-core-rc& scaled
replicationcontroller
&maxscalerc& scaled
replicationcontroller
&mha-manager& scaled
replicationcontroller
&milk-cdn-rc& scaled
replicationcontroller
&milk-rc& scaled
replicationcontroller
&mysql-node1& scaled
replicationcontroller
&mysql-node2& scaled
replicationcontroller
&mysql-node3& scaled
replicationcontroller
&parametcdrc& scaled
replicationcontroller
&pisces-core-rc& scaled
replicationcontroller
&postgresqlrc& scaled
replicationcontroller
&rabbit1rc& scaled
replicationcontroller
&rabbit2rc& scaled
replicationcontroller
&rabbit3rc& scaled
replicationcontroller
&redis-sentinel1& scaled
replicationcontroller
&redis-sentinel2& scaled
replicationcontroller
&redis-sentinel3& scaled
replicationcontroller
&redisrc1& scaled
replicationcontroller
&redisrc2& scaled
replicationcontroller
&redisrc3& scaled
replicationcontroller
&sagittarius-core-rc& scaled
replicationcontroller
&taurus-core-rc& scaled
replicationcontroller
&virgo-core-rc& scaled
(18)&&&&&使用以下命令查看服务状态。
[root@masternode ~]#
/opt/bin/kubectl --server=127.0.0.1:8888 get pod -o wide
NAME&&&&&&&&&&&&&&&&&&&&& READY&&&& STATUS&&& RESTARTS&& AGE&&&&&& IP&&&&&&&&&&& NODE
aquarius-core-rc-s3t3t&&&&& 1/1&&&&&& Running&& 1&&&&&&&&& 5m&&&&&&& 10.101.1.3&&&&&& 172.10.120.237
aries-core-rc-zs16k&&&&&&&& 1/1&&&&&& Running&& 0&&&&&&&&& 5m&&&&&&& 10.101.1.4&&&&&& 172.10.120.237
cancer-core-rc-zxvpn&&&&&&& 1/1&&&&&& Running&& 1&&&&&&&&& 5m&&&&&&& 10.101.98.4&&&&& 172.10.120.238
cas-server-rc-ql932&&&&&&&& 1/1&&&&&& Running&& 0&&&&&&&&& 5m&&&&&&& 10.101.98.5&&&&& 172.10.120.238
cider-portal-rc-vqwmx&&&&&& 1/1&&&&&& Running&& 0&&&&&&&&& 5m&&&&&&& 10.101.1.5&&&&&& 172.10.120.237
h3cloudcmp-core-rc1-d3p55&
&1/1&&&&&& Running&& 2&&&&&&&&& 5m&&&&&&& 10.101.16.5&&&&& 172.10.120.236
h3cloudcmp-core-rc2-zp7h0&& 1/1&&&&&& Running&& 1&&&&&&&&& 5m&&&&&&& 10.101.98.6&&&&& 172.10.120.238
h3cloudcmp-core-rc3-n373h&& 1/1&&&&&& Running&& 1&&&&&&&&& 5m&&&&&&& 10.101.1.6& &&&&&172.10.120.237
h3cloudcmp-h3-rc1-cmp79&&&& 1/1&&&&&& Running&& 0&&&&&&&&& 5m&&&&&&& 10.101.16.4&&&&& 172.10.120.236
h3cloudcmp-h3-rc2-mc4sk&&&& 1/1&&&&&& Running&& 0&&&&&&&&& 5m&&&&&&& 10.101.98.7&&&&& 172.10.120.238
h3cloudcmp-h3-rc3-3dpf7&&&& 1/1&& &&&&Running&& 0&&&&&&&&& 5m&&&&&&& 10.101.1.7&&&&&& 172.10.120.237
leo-core-rc-tnkh0&&&&&&&&&& 1/1&&&&&& Running&& 0&&&&&&&&& 5m&&&&&&& 10.101.16.7&&&&& 172.10.120.236
maxscalerc-9j2qk&&&&&&&&&&& 1/1&&&&&& Running&& 0&&&&&&&&& 5m&&&&&&& 10.101.16.6&&&&& 172.10.120.236
mha-manager-j3t2s&&&&&&&&&& 1/1&&&&&& Running&& 0&&&&&&&&& 5m&&&&&&& 10.101.1.8&&&&&& 172.10.120.237
milk-cdn-rc-m16vp&&&&&&&&&& 1/1&&&&&& Running&& 0&&&&&&&&& 5m&&&&&&& 10.101.1.9&&&&&& 172.10.120.237
milk-rc-9cppg&&&&&&&&&&&&&& 1/1&&&&&& Running&& 0&&&&&&&&& 5m&&&&&&& 10.101.98.8&&&&& 172.10.120.238
mysql-node1-rpd3k&&&&&&&&&& 1/1&&&&&& Running&& 0&&&&&&&&& 5m&&&&&&& 10.101.16.8&&&&& 172.10.120.236
mysql-node2-8qmxx&&&&&&&&&& 1/1&&&&&& Running&& 0&&&&&&&&& 5m&&&&&&& 10.101.98.9&&&&& 172.10.120.238
mysql-node3-wg9m8&&&&&&&&&& 1/1&&&&&& Running&& 0&&&&&&&&& 5m&&&&&&& 10.101.1.10&&&&& 172.10.120.237
parametcdrc-krp1x&&&&&&&&&& 1/1&&&&&& Running&& 0&&&&&&&&& 5m&&&&&&& 10.101.16.9&&&&& 172.10.120.236
pisces-core-rc-n62b5&&&&&&& 1/1&&&&&& Running&& 0&&&&&&&&& 5m&&&&&&& 10.101.1.12&&&&& 172.10.120.237
postgresqlrc-199nk&&&&&&&&& 1/1&&&&&& Running&& 0&&&&&&&&& 5m&&&&&&& 10.101.1.14&&&&& 172.10.120.237
rabbit1rc-w8pj8&&&&&&&&&&&& 1/1&&&&&& Running&& 0&&&&&&&&& 5m&&&&&&& 10.101.16.10&&&& 172.10.120.236
rabbit2rc-pdwqf&&&&&&&&&&&& 1/1&&&&&& Running&& 0&&&&&&&&& 5m&&&&&&& 10.101.98.11&&&& 172.10.120.238
rabbit3rc-r1cbj&&&&&&&&&&&& 1/1&&&&&& Running&& 0&&&&&&&&& 5m&&&&&&& 10.101.1.11&&&&& 172.10.120.237
redis-sentinel1-4hp8h&&&&&& 1/1&&&&&& Running&& 0&&&&& &&&&5m&&&&&&& 172.10.120.236&& 172.10.120.236
redis-sentinel2-v9f0g&&&&&& 1/1&&&&&& Running&& 0&&&&&&&&& 5m&&&&&&& 172.10.120.238&& 172.10.120.238
redis-sentinel3-6vsj5&&&&&& 1/1&&&&&& Running&& 0&&&&&&&&& 5m&&&&&&& 172.10.120.237&& 172.10.120.237
redisrc1-75ncv&&&&&&&&&&&&& 0/1&&&&&& Running&& 0&&&&&&&&& 5m&&&&&&& 172.10.120.236&& 172.10.120.236
redisrc2-031gb&&&&&&&&&&&&& 0/1&&&&&& Running&& 0&&&&&&&&& 5m&&&&&&& 172.10.120.238&& 172.10.120.238
redisrc3-kpn7z&&&&&&&&&&&&& 1/1&&&&&& Running&& 0&&&&&&&&& 5m &&&&&&&172.10.120.237&& 172.10.120.237
sagittarius-core-rc-wtt8g&& 1/1&&&&&& Running&& 1&&&&&&&&& 5m&&&&&&& 10.101.16.11&&&& 172.10.120.236
taurus-core-rc-k7w8q&&&&&&& 1/1&&&&&& Running&& 1&&&&&&&&& 5m&&&&&&& 10.101.98.10&&&& 172.10.120.238
virgo-core-rc-8sglj&&&&&&&& 1/1&&&&&& Running&& 0&&&&&&&&& 5m&&&&&&& 10.101.1.15&&&&& 172.10.120.237
不同款型规格的资料略有差异, 详细信息请向具体销售和400咨询。H3C保留在没有任何通知或提示的情况下对资料内容进行修改的权利!}

我要回帖

更多关于 吃鸡移动设备是什么 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信