Proxmox Mcoa
Proxmox Mcoa
Proxmox Mcoa
4.- luego para desmontar la particin en ambos nodos. root@zsp1:~# umount -a 5. Eliminar el volumen logico /dev/pve/data en ambos nodos. root@zsp1:~# lvremove /dev/pve/data 6. Creamos un nuevo volumen logico en ambos nodos root@zsp1:~# lvscan root@zsp1:~# vgdisplay root@zsp1:~# lvcreate -n drbd0 pve -l16699 Ingresar proxy para efectuar descargas y actualizar en ambos nodos. 1.- Ingresar proxy dentro de siguiente archivo. root@zsp1:~# cat /etc/profile.d/proxy.sh #!/bin/bash export http_proxy=http://172.30.13.11:3128 2.- rebotear ambas maquinas. 3.- actualizar el software root@zsp1:~# apt-get update
DRBD
1. Instalamos los paquetes en ambos nodos apt-get install drbd8-utils -y 2. Configuramos el recurso. Crear el archivo drbd0.res en ambos nodos. cat /etc/drbd.d/drbd0.res resource r0 { protocol C; device minor 0; meta-disk internal; disk /dev/pve/drbd0; on nodo1 { address 1.1.1.1:7801; } on nodo2 { address 1.1.1.2:7801; }
2. Aumentamos el MTU de la interfaz DRBD a 9000 /etc/network/interfaces #DRBD post-up ifconfig eth0 mtu 9000 2. Verificar siguiente archivo, para que ambos nodos queden primarios, agregar la siguiente linea dentro del archivo.
3.- Iniciamos el servicio, en ambos nodos.. root@zsp2:~# /etc/init.d/drbd start 4. Cargamos el modulo, en ambos nodos. modprobe drbd 5. Cremos la metadata, en ambos nodos. drbdadm create-md r0 6. Levantamos el recurso, en ambos nodos. drbdadm up r0 7. Iniciamos la sincronizacin, solo en el nodo1. drbdadm -- --overwrite-data-of-peer primary r0 root@nodo1:~# cat /proc/drbd version: 8.3.10 (api:88/proto:86-96) GIT-hash: 5c0b0469666682443d4785d90a2c603378f9017b build by phil@fattyre, 2011-01-28 12:17:35 0: cs:SyncTarget ro:Secondary/Primary ds:Inconsistent/UpToDate C r----ns:0 nr:784768 dw:784384 dr:0 al:0 bm:47 lo:4 pe:13 ua:3 ap:0 ep:1 wo:b oos:45208160 [>....................] sync'ed: 1.8% (44148/44912)M finish: 0:35:58 speed: 20,932 (20,640) want: 20,480 K/sec
9. Damos formato al dispositivo STORAGE 8.- para acelerar el proceso de sincronizacin ingresamos en el nodo1
drbdsetup /dev/drbd0 syncer -r 40000
1.- al quedar ambos nodos en esta condicio se debe efectuar un spplit brain. root@zsp1:~# cat /proc/drbd version: 8.3.10 (api:88/proto:86-96) GIT-hash: 5c0b0469666682443d4785d90a2c603378f9017b build by phil@fattyre, 2011-01-28 12:17:35 0: cs:StandAlone ro:Primary/Unknown ds:UpToDate/DUnknown r----ns:0 nr:0 dw:0 dr:784 al:0 bm:0 lo:0 pe:0 ua:0 ap:0 ep:1 wo:b oos:3263248 root@zsp2:~# cat /proc/drbd version: 8.3.10 (api:88/proto:86-96) GIT-hash: 5c0b0469666682443d4785d90a2c603378f9017b build by phil@fattyre, 2011-01-28 12:17:35 0: cs:StandAlone ro:Primary/Unknown ds:UpToDate/DUnknown r----ns:0 nr:0 dw:0 dr:3216 al:0 bm:0 lo:0 pe:0 ua:0 ap:0 ep:1 wo:b oos:0 2.- se debe ejecutar el siguiente comando en el nodo 2 root@zsp2:~# DRBD module version: 8.3.10 userland version: 8.3.7 root@zsp2:~# drbdadm -- --discard-my-data connect r0 DRBD module version: 8.3.10 userland version: 8.3.7 3.- luego ejecutamos el siguiente commando en el nodo1 root@zsp1:~# DRBD module version: 8.3.10 userland version: 8.3.7 4.- luego verificamos que esten sincronizando con el siguiente comando. root@zsp1:~# cat /proc/drbd version: 8.3.10 (api:88/proto:86-96) GIT-hash: 5c0b0469666682443d4785d90a2c603378f9017b build by phil@fattyre, 2011-01-28 12:17:35 0: cs:SyncSource ro:Primary/Secondary ds:UpToDate/Inconsistent C r----ns:821900 nr:0 dw:0 dr:824492 al:0 bm:108 lo:0 pe:0 ua:0 ap:0 ep:1 wo:b oos:2441348 [====>...............] sync'ed: 25.3% (2441348/3263248)K finish: 0:01:55 speed: 21,056 (20,544) K/sec
5.- una vez finalizado la sincronizacin verificamos y levantamos el nodo 2 tambin como primario. root@zsp2:~# cat /proc/drbd version: 8.3.10 (api:88/proto:86-96) GIT-hash: 5c0b0469666682443d4785d90a2c603378f9017b build by phil@fattyre, 2011-01-28 12:17:35 0: cs:Connected ro:Secondary/Primary ds:UpToDate/UpToDate C r-----
ns:0 nr:3263248 dw:3263248 dr:3408 al:0 bm:396 lo:0 pe:0 ua:0 ap:0 ep:1 wo:b oos:0 root@zsp2:~# drbdadm primary r0 DRBD module version: 8.3.10 userland version: 8.3.7 root@zsp2:~# cat /proc/drbd version: 8.3.10 (api:88/proto:86-96) GIT-hash: 5c0b0469666682443d4785d90a2c603378f9017b build by phil@fattyre, 2011-01-28 12:17:35 0: cs:Connected ro:Primary/Primary ds:UpToDate/UpToDate C r----ns:0 nr:3263248 dw:3263248 dr:3488 al:0 bm:396 lo:0 pe:0 ua:0 ap:0 ep:1 wo:b oos:0
LVM
1. Creamos un Volumen fisico solo en un nodo root@nodo2:~# pvcreate /dev/drbd0 Writing physical volume data to disk "/dev/drbd0" Physical volume "/dev/drbd0" successfully created 2. Damos formato al dispositivo
mkfs.ext4 /dev/drb0
3. Creamos el directorio a montar el dispositivoy lo montamos mkdir /opt/drbd mount /dev/drbd0 /opt/drbd 2. Chequeamos root@nodo2:~# pvscan PV /dev/sda2 VG pve PV /dev/drbd0 lvm2 [67.86 GiB / 0 lvm2 [43.86 GiB] free]
3. Creamos un Grupo de volumen solo en un nodo root@nodo2:~# vgcreate VM_STORE /dev/drbd0 Volume group "VM_STORE" successfully created 4. Chequeamos root@nodo2:~# vgscan Reading all physical volumes. This may take a while... Found volume group "pve" using metadata type lvm2 Found volume group "VM_STORE" using metadata type lvm2 5. Aadimos el nuevo LVM como volumen para las maquinas virtuales
Go to the Proxmox VE web interface to 'Configuration/Storage' and click on the red arrow and select 'Add DIRECTORY group'.
5. En el nodo2, solo agregamos el nuevo recurso Go to the Proxmox VE web interface to 'Configuration/Storage' and click on the red arrow and select 'Add LVM group'.
CLUSTER
1. Creamos el cluster (nodo1) pvecm create VM-MACHINES 2. Chequeamos el status pvecm status 3. Aadir el otro notro (nodo2) root@nodo2:~# pvecm add 172.18.19.154 -> IP-NODO1 [email protected]'s password: copy corosync auth key stopping pve-cluster service Stopping pve cluster filesystem: pve-cluster. backup old database Starting pve cluster filesystem : pve-cluster. Starting cluster: Checking if cluster has been disabled at boot... [ Checking Network Manager... [ OK ] Global setup... [ OK ] Loading kernel modules... [ OK ] Mounting configfs... [ OK ] Starting cman... [ OK ] Waiting for quorum... [ OK ] Starting fenced... [ OK ] Starting dlm_controld... [ OK ] Unfencing self... [ OK ] generating node certificates
OK
merge known_hosts file restart services Restarting PVE Daemon: pvedaemon. Restarting web server: apache2 ... waiting . successfully added node 'nodo2' to cluster. root@nodo2:~# 3. Desplegar informacin cluster pvecm status root@nodo2:~# pvecm nodes Node Sts Inc Joined 1 M 8 2012-05-09 10:10:16 2 M 4 2012-05-09 10:10:16 Name nodo1 nodo2
4. La configuracin del cluster queda en el directorio: /etc/pve/ . Ante cualquiera necesidad de editar el archivo cluster, se tiene que realizar de la siguiente forma: a. copiar el archivo cluster.conf hacia cluster.conf.new b. Editar el archivo cluster.conf.new c. Por la interfaz Web -> HA -> Activar 5.- Configuracin tarjetas DRAC servidores DELL R710 a.- rebotear ambas maquinas y durante el proceso de booteo, al momento de indicar acceso remoto presionar CTRL + E. b.- ingresar a Lan User Configuration e ingresar siguientes datos. NODO 1 Account user name: root Enter password: 123 Confirm password: 123 NODO 2 Account user name: root Enter password: 123 Confirm password: 123 c.- Ingresar a LAN parameters e ingresar siguientes datos. NODO 1 IPV4 Settings IPV4 address: 172.18.19.152 Subnet mask: 255.255.255.0 Default Gateway: 172.18.19.1 DNS Server: 172.30.13.11 NODO 2 IPV4 Settings IPV4 address: 172.18.19.153 Subnet mask: 255.255.255.0 Default Gateway: 172.18.19.1 DNS Server: 172.30.13.11
d.- ingresados los datos guardar los cambios y salir 6. Configuracion Fencing, se debe efectuar en un solo nodo. a. Copiamos el archivo para editarlo: cp /etc/pve/cluster.conf /etc/pve/cluster.conf.new b. Adicionamos el fencing luego de la etiqueta: </clusternodes> este es un ejemplo del archivo de configuracin.
fence_tool ls root@nodo1:/etc/pve# fence_tool ls fence domain member count 2 victim count 0 victim now 0 master nodeid 2 wait state none members 1 2 h. Para probar el fencing podemos consultar el status root@nodo1:/etc/pve# fence_ilo -a 192.168.0.87 -l root -p 12345678 -o status Status: ON root@nodo2:~# fence_ilo -a 192.168.0.89 -l root -p 12345678 -o status Status: ON
7. Adicionamos el recurso (en este caso una maquina virtual) a. b. c. d. Panel web HA Add HA managed VM/CT