Archives de catégorie : Virtualisation

Hyper-V cmd

Hyper-v PVLAN

Get-VMSwitch

Get-VMNetworkAdapterVlan

le réseau est activé via le vlan 50 et coché ID vlan 50

Set-VMNetworkAdapterVlan –VMName

test-vlan –Isolated –PrimaryVlanId 50 –SecondaryVlanId 501

Set-VMNetworkAdapterVlan –VMName srv-test-02 –Isolated –PrimaryVlanId 50 –SecondaryVlanId 501

Get-VMNetworkAdaptervlan –VMName srv-test-02

docker cmd

docker save busybox > busybox.tar docker save -o owncloud.tar owncloud:perso docker load -i owncloud.tar

docker images

docker run -d owncloud:perso docker ps docker images ps

docker exec -ti $ID /bin/bash

Ajout K8’s cmds

OpenVZ commandes

Liste des containers

vzlist

    CTID      NPROC STATUS      IP_ADDR         HOSTNAME
    10542         66 running   10.xxx.xx.xxx       xxx-fonction-01.xxx.xxxxx.net
    10580        500 running   10.xxx.xx.xxx      xxx-zimbra-01.xxx.xxxxx.net

Enter dans les containers

vzctl enter 10580

On en sort avec CTRL+D

Exécution de commande sans entrer dans le VZ

vzctl exec 10580 df -h

Augmentation de l’espace disque à chaud

vzctl set 10580 --diskspace 78G:80G --save

Le premier chiffre est la soft limite, celle affiché par un df et l’autre est la limite hard.

Installation de Xen 4.4 sur Debian 8.x(Jessie)

 
 xen-create-image --hostname=metrologik --memory=2G --vcpus=2 --lvm=vg_host --size=60G  --dist=jessie --ip=192.168.66.200 --gateway=192.168.66.254 --netmask=255.255.255.0 --fs=ext4
Via les paquets de la distribution 

apt-get install xen-linux-system
apt-get install xen-tools
Note dans la version 4.4 de Xen c'est xl et non xm qu'il faut utiliser.

Démarrage sur noyau xen

dpkg-divert --divert /etc/grub.d/08_linux_xen --rename /etc/grub.d/20_linux_xen
Spécificité OVH

cd /etc/grub.d/
mv 06_OVHkernel 09_OVHkernel
/etc/grub.d doit ressembler à ceci :

00_header  05_debian_theme  08_linux_xen  09_OVHkernel	10_linux  30_os-prober	30_uefi-firmware  40_custom  41_custom
Appliquer des modifications :

update-grub && reboot 
Vérification :

taper la commande 

xl list
si elle renvoi 

Can't find hypervisor information in sysfs!

C'est que le kernel xen n'est pas chargé, refaire les opérations ci-dessus.

Configuration de xen

dans /etc/grub/default

Ajouter les lignes


GRUB_CMDLINE_XEN_DEFAULT="dom0_mem=2024M,max:2024M (dom0_max_vcpus=1 dom0_vcpus_pin)"
GRUB_DISABLE_OS_PROBER=true

fixe la mémoire pour dom0 à 2G ( et lui octroi 1 vcpu )

Prise en compte

  update-grub
  
dans /etc/xen/xl.conf

autoballoon=0

ceci empêche les domU de prendre la mémoire de dom0 même si elle n'est pas utilisée.

Pirse en compte 

reboot

Vérification mémoire avec 

//xl list//

Avant reboot
%%
Name                                        ID   Mem VCPUs	State	Time(s)
Domain-0                                     0 64459     8     r-----      74.0

Après 

Name                                        ID   Mem VCPUs	State	Time(s)
Domain-0                                     0  1024     8     r-----      42.7
%%
Vérification avec xl info

xl info
Avant 

total_memory           : 65428
free_memory            : 0
Après 

total_memory           : 65428
free_memory            : 63563

Vérification de l'octroi du CPU 

xl vcpu-list

Avant

Name                                ID  VCPU   CPU State   Time(s) CPU Affinity
Domain-0                             0     0    4   -b-       6.5  all
Domain-0                             0     1    6   -b-      14.2  all
Domain-0                             0     2    5   -b-       2.3  all
Domain-0                             0     3    1   -b-       1.6  all
Domain-0                             0     4    3   -b-       3.8  all
Domain-0                             0     5    2   -b-       1.2  all
Domain-0                             0     6    7   -b-       9.8  all
Domain-0                             0     7    0   r--       4.8  all

Après 

Name                                ID  VCPU   CPU State   Time(s) CPU Affinity
Domain-0                             0     0    0   r--      41.5  0


xl list
xm list

xl & xm dépendent de la verison de xen <4.1 xm > 4.4 xl

xm info

xm console id_vm

networking xen

Editer
réseau pour xen définition du réseau privé pour les vm 192.168.80.0

Dans /etc/network/interfaces

auto lo
iface lo inet loopback

auto eth0
iface eth0 inet static
       address 149.202.192.227
       netmask 255.255.255.0
       network 149.202.192.0
       broadcast 149.202.192.255
       gateway 149.202.192.254

auto xenbr0
iface xenbr0 inet static
	address 192.168.80.254
	netmask 255.255.255.0
	network 192.168.80.0
	broadcast 192.168.80.255
	pre-up brctl addbr $IFACE
	up ip link set $IFACE up
	post-down brctl delbr $IFACE
	down ip link set $IFACE down
Pour une VM

Dans /etc/network/interfaces

auto eth0
iface eth0 inet static
	address 192.168.80.20
	network 192.168.80.0
	netmask 255.255.255.0
	gateway 192.168.80.254 

lancement vm

xl create vm_name.cfg

Extinction

xl shutdown  vm_name

Extinction rapide

xl destroy  vm_name

Migration sans intéruption de service

xl migrate --live vm_name new_xen_host

A mettre création vm avec fichiers de configuration

Commandes ESXi

esxcli storage core path list

pscsi.vmhba1-pscsi.0:1-mpx.vmhba1:C0:T1:L0

 UID: pscsi.vmhba1-pscsi.0:1-mpx.vmhba1:C0:T1:L0
 Runtime Name: vmhba1:C0:T1:L0
 Device: mpx.vmhba1:C0:T1:L0
 Device Display Name: Local VMware, Disk (mpx.vmhba1:C0:T1:L0)
 Adapter: vmhba1
 Channel: 0
 Target: 1
 LUN: 0
 Plugin: NMP
 State: active
 Transport: parallel
 Adapter Identifier: pscsi.vmhba1
 Target Identifier: pscsi.0:1
 Adapter Transport Details: Unavailable or path is unclaimed
 Target Transport Details: Unavailable or path is unclaimed
 Maximum IO Size: 4194304

Avoir la size

esxcli storage core device list

mpx.vmhba1:C0:T1:L0

 Display Name: Local VMware, Disk (mpx.vmhba1:C0:T1:L0)
 Has Settable Display Name: false
 Size: 20480
 Device Type: Direct-Access
 Multipath Plugin: NMP
 Devfs Path: /vmfs/devices/disks/mpx.vmhba1:C0:T1:L0
 Vendor: VMware,
 Model: VMware Virtual S
 Revision: 1.0
 SCSI Level: 2
 Is Pseudo: false
 Status: on
 Is RDM Capable: false
 Is Local: true
 Is Removable: false
 Is SSD: false
 Is VVOL PE: false
 …

vmkfstools -C vmfs5 -S localdata /vmfs/devices/disks/mpx.vmhba1:C0:T1:L0:1

Ou vmfs6

create fs deviceName:’/vmfs/devices/disks/mpx.vmhba1:C0:T1:L0:1′, fsShortName:’vmfs5′, fsName:’localdata’ deviceFullPath:/dev/disks/mpx.vmhba1:C0:T1:L0:1 deviceFile:mpx.vmhba1:C0:T1:L0:1 ATS on device /dev/disks/mpx.vmhba1:C0:T1:L0:1: not supported . Checking if remote hosts are using this device as a valid file system. This may take a few seconds… Scanning for VMFS-3/VMFS-5 host activity (512 bytes/HB, 2048 HBs).

Creating vmfs5 file system on « mpx.vmhba1:C0:T1:L0:1 » with blockSize 1048576 and volume label « localdata ». Successfully created new volume: 58de5125-6e2f5cd0-03b0-000c2998ccfa

Dysfonctionnement ESX

Introduction

Le but de ce document est de fournir une procédure pour les divers problème rencontrés avec le Vcenter ou un hote ESX.

Perte de console / problème de backup

Symptômes

Lors de l’accès à l’onglet console d’une machine virtuelle on obtient l’erreur suivante avec impossibilité de lancer la console :

unable to connect to the MKS there is no Vmware process running for config file /vmfs/…

la ou les machines virtuelles continuent de fonctionner normalement

Généralement, si cela se produit, l’ensemble des machines virtuelles d’un même hôte ESX rencontrerons le même problème.

Il faut déterminer les hôte ESX pour lesquels cette erreur se produit, une fois ceci déterminer la confirmation est donnée en consultant l’onglet Hardware Status de l’hôte repéré.

Le message suivant apparaîtra :

Résumé système: Le service de contrôle de matériel sur cet hôte ne répond pas ou n’est pas disponible

Résolution

Pour résoudre ce problème il suffit de relancer les services de gestion de l’hôte ESX

Dans les cas de la production, appliquer la procédure suivante ( ESXi)

Se rendre sur le KVM de l’hôte ESX ( presser [VERR NUM] et [-] simultanément, à l’aide des flèches directionnelles se placer sur le numéro de l’hôte ESX valider avec [barre d’espace].

Dans le cas ou l’accès via le KVM n’est pas possible débrancher et rebrancher son alimentation, il peut diffonctionner.

La console de gestion de l’hôte ESX permet de relancer l’agent de gestion de ce dernier.

Appuyer sur [F2] ( customize the system )

se logguer en tant que root

Utiliser les flèches pour se placer sur l’option Troubleshooting options et ensuite sur Restart management Agent, une fois sur cet item appuyer sur [entrée]

Appuyer sur [F11] pour relancer le service.

l’ESx relance son agent de gestion et cela prends quelques minutes. Appuyer sur [entrée] pour sortie du menu et [ESC] pour se déconnecter. Ne pas laisser cette session ouverte.

Il est à noter que cela n’arrête pas les machines virtuelles, cela entraîne une perte de la vision de l’hôte ESX dans le Vcenter du temps de relance du service de gestion ( normal ).

Une fois ceci fait on récupère la console pour toutes les machines virtuelles de l’hôte sur lequel a été effectué la manipulation.

Effets de bord

Le problème précédent génère aussi des perturbations dans la sauvegarde des machines virtuelles faite avec Vmware data recovery.

Exemple de log :

01/03/2011 04:40:59: Sauvegarde normale utilisant BACKUP ORGANISATION PROD 01/03/2011 04:41:22: Failed to create snapshot for VM_NAME, erreur -3948 ( exception du vcb api) 01/03/2011 04:41:24: Tâche inachevée

ou encore :

01/03/2011 02:30:22: Sauvegarde normale utilisant BACKUP ORGANISATION PROD 01/03/2011 02:30:28: Copie de VM_NAME 01/03/2011 02:30:49: Sauvegarde de incrémentiel du disque « [P2000-SAN-PROD-ORGA]VM_NAME _1/VM_NAME-flat.vmdk » en cours avec « Réseau » 01/03/2011 02:47:13: Trouble reading files, erreur -1021 ( inconnu) 01/03/2011 02:47:17: Tâche inachevée

La manipulation abordée précédemment corrige le problème. A noter que pour la VM Y. La cause peut être différente car cette VM provient d’un P2V effectuer à chaud.

VMWare Procédure de migration des machines virtuelles

Contexte changement de stockage

ex baie sun storage outdated vers VNX5300

Machines virtuelles sous Windows

Attention lors d’une conversion P2V aux cartes réseau en teaming à supprimer.

Une commande permet dans le cas de soucis de pallier au problème en réinitialisant la couche tcp/ip windows, il faudra veillez à supprimer les drivers de teaming basp ou autres.

netsh int ip reset c:\resetlog.txt   

si pb consulter le fichier de log et reboot si succès.

Pensez aussi à supprimer l’adaptateur réseau dans les propriétés de la VM si celui-ci a un type à flexible, choisir E1000. Suppression et recréation. Dans le cas uniquement d’un clonage ou dans le cas où un adaptateur plus ancien a été créer.

Note sur l’alignement des partitions

Commande wmi pour afficher l’offset de démarrage d’un partition, ouvrez un cmd.exe

wmic partition get blocksize, startingoffset, name, index

OS windows 2003

non aligné : offset = 32256 ( 63 secteurs )   une unité d'allocation de disque = 512o
offset aligné = 2097152 ( 4096 secteurs ) ou 32 768 ( 64 secteurs )  

calcul de l’alignement : ( Offset de la partition x Taille de secteur disque ( blocksize )) / Taille unité d’allocation de bande ( 64k ou 4k )

note 64Ko = 65536 octets

Le tout en Ko ou octets

Ou plus simplement si l’offset divisé par le blocksize ne donne pas un nombre entier alors partition non alignée ⇒ effectuer l’alignement

Cas pour lesquels l’alignement n’est pas nécessaire : Windows 2008 / LVM 2 sous Linux.

Attention le changement du matériel entraîne la nécessité de réactivé Windows , utiliser la méthode d’appel au centre d’activation et choisir la France, composer le numéro et taper *# pour activer les fonction vocale. Suivez les instructions.

Dans le cas d’un clone , il est important afin de minimiser l’interruption de service de retirer la connexion de l’interface réseau avant de lancer la Vm. Ceci permet d’effectuer toutes les opérations de mise à niveau avant de passer en production. ( modification HW, vmware tools et réalignement ).

Machines virtuelles sous Linux

Il est possible d’effectuer l’opération en éteignant la Vm et en utilisant cloner, cette méthode à l’avantage de prévoir un retour arrière sans snapshot.

Pensez aussi à supprimer l’adaptateur réseau dans les propriètés de la VM si celui-ci a un type à flexible, choisir E1000. Suppression et recréation. Dans le cas uniquement d’un clonage. Sans licence Vmotion storage

0 – faire un snapshot * si choix du clonage option non obligatoire. 1 – extinction de la VM 2 – déplacement migration ou clonage

Clic droit sur la machine virtuelle migrer

Choix de l’hôte, choix du datastore , récapitulatif des informations de migration cliquer sur terminer.

information sur la durée. Tableau de mesure de vitesse de transfert stk ⇒ vnx5300 pour un disque dur de 12 Go thin pro sur 21 Go

Temps : 8’45 min

vm1 HD 52 Go 40 minutes migration

		10 minutes de réalignement

vm2 53go/103go provisionner 1h ( Durée Note 00:34:07.669 migration nouveau stockage 00:59:26.066 fin totale service rendu

3 – Mise à jour du niveau d’hardware de la vm. 4 – réalignement des disques

montage de gparted live cd

booter sur le cd, choisir default boot, choisir don’t touch keybord, france, 08 et 0 pour démarrer l’interface graphique.

espace libre précédent mettre 1 Mo aligné sur toujours à Mio cliquer sur redimensionner

démarrage sur rhel5 rescue cd pour refixer le mbr

chroot /mnt/sysimage grub-install /dev/sda

5 – boot et mise à jour des vmwaretools Ok pas de reboot pour une rhel5 32 bits.

Vérification alignement fdisk -lu /dev/sdX

Cas des linux ayant un lvm, le lvm ne peut pas être réaligner de la sorte, en effet il effectue déjà des alignement automatique :

cat /sys/block/sdb/queue/physical_block_size

4096

cat  /sys/block/sdb/queue/logical_block_size

512

et il n’est pas nécessaire d’aligner de la partition ext3 ou vfat de boot car le système ne s’en sert qu’une fois au démarrage.