xen nous prévient que l’installation écrasera tout sur le disque d’installation
Acceptation des termes du contrat CITRIX
Message d’avertissement car j’ai omis d’activer la virtualisation lors de la création de la VM Xen Server, cependant le processus d’installation peut malgré tout continuer.
Xen nous demande où souhaitons nous stocker les futures machines virtuelles, pour l’instant je n’ai pas le choix car qu’un seul disque.
le media d’installation est local, c’est à dire émulé comme un CD-ROM
xen nous demande si nous souhaitons installer des composants supplémentaire, pour l’instant non
Il y a la possibilité de tester le media d’installation avant de lancer l’installe
vérification du média
le media est clean
l’installation commence réellement, on nous demande de rentrer le mot de passe root du serveur
puis d’indiquer l’@Ip du serveur, je laisse en DHCP pour l’instant, mais il est évident qu’un serveur doit disposer d’une @IP fixe
indiquer ensuite le nom d’hôte exemple XenServer1 et préciser si les DNS sont attribués automatiquement ou pas.
Ensuite, on doit rentrer le choix de la région et de la ville
Paramétrage du service NTP, synchronisation de l’horloge
il est préférable de se synchroniser sur une source externe, pour un lab, je pense qu’il est tout de même inutile de se soucier de ce genre de détail.
Il n’y a plus qu’à lancer l’installation
Progression de l’installation
Installation réussite le serveur va redémarrer
Une fois redémarré voilà ce que vous devriez obtenir à peu de chose prêt que votre configuration IP sera probablement différente.
Ici, l’@IP 192.168.87.147 va nous permettre d’administrer notre serveur XEN.
Comme il est question de construire un cluster Xen, l’idée est de refaire extactement le même process pour avoir un second hôte, en changeant le nom d’hôte en « Xenserver2 » par exemple.
Et oui en parallèle de mon pseudo « laboratoire » VMWare ESxi, j’ai monté un 2ème « lab » pour tester la virtualisation mais cette fois sous XenServer.
Toujours dans un environnement clusterisé bien évidemment 🙂
La première partie décrit uniquement le paramétrage de la VM XenServer sous Workstation 8.0
On sélectionne Custom afin de personnaliser notre machine virtuelle
On sélectionne le mode de compatibilité le plus haut
On indique le path pour l’image d’installation de Xen Server
Au niveau du type d’OS, j’ai choisi Other 64Bits
Il reste a indiquer le nom de la vm et le path par défaut de celle-ci
Coté processeur, il y aura 1 processeur muni de 4 coeurs
la vm disposera de 3 x 1024Mo
coté réseau il y a pour l’instant qu’elle seul interface réseau public en 192.168.87.x
j’ai laissé cet onglet par défaut
Création d’un nouveau disque dur virtuel
avec une interface IDE
la taille est de 15Go, pas besoin de plus sachant que l’idée est d’avoir les VM sur un SAN partagé avec un second host Xen Server
Mon cluster ESXi fonctionne enfin ! 🙂 mais ca n’a pas été sans douleurs..!
un petit schéma récapitulatif de l’infra de lab, je n’ai pas eu le temps de vous faire un magnifique schéma milles excuses.
Pour résumer, tout se passe sur mon PC seven
sur lequel je fais tourner:
VMWare Workstation 8.0
VMWare Vcenter Server
VMWare Client
Sur VMWare Workstation 8.0 j’ai crée 3 machines virtuelles.
Un hote ESXi 5.0
Un second host ESXi 5.0
Un Win2008R2 DataCenter pour simuler un SAN avec l’outil Starwind ISCSI
VMWare Vcenter Server permet de manipuler et de configurer nos hôtes ESXi, il permet en autre la création du cluster.
Contrairement à ce que je pensais, c’est un logiciel et non un OS il peut donc être installé sur un OS serveur tel que Win2008.
Mais dans mon cas, il a été installé en local sur seven, !Attention! ce n’est pas supporté par VMWare. Il y a en effet quelques manipulations à réaliser pour que l’installation s’opère bien sous Seven. cf le lien suivant -> http://communities.vmware.com/docs/DOC-16950
Ci joint un document PDF récapitulatif sur les OS compatibles avec une installation VMWare Vcenter Server -> vsp_compatibility_matrix
VMWare Client permet d’accéder soit directement à un serveur ESXi soit d’accéder à Vcenter Server.
Ci joint les différentes source qui m’ont permis d’avancer sur le sujet:
Mais qu’est ce qui leur a pris à VMWare de rendre les choses si complexe ??????
petit rappel sur la définition de « complexe » qui à mon gout est en adéquation avec le produit…
Un complexe est un tout qui comprend un certain nombre de parties, en particulier avec des parties interconnectées ou reliées mutuellement.
Avec Hyper-V en quelques cliques on peut avoir un cluster opérationnel.
Vmware, avant de comprendre comment installer le host, comment gérer le host, comment mettre en place un cluster ESXi il s’en passe du temps… et le temps je le passe sur le site de VMWare a essayer de comprendre la différence entre chaque composants de la solution, car des composants, il y en a la pelle..
L’idée de départ semblait pourtant simple mais il y a des points de blocage:
Les étapes:
1ère étape: L’installation de workstation 8.0 pour la gestion des machines virtuelles, dont mes deux serveurs ESXi, ça, ça va…
Installation du premier serveur ESXi
Installation du deuxième serveur ESXi
Ajout d’une VM sur l’un des mes serveurs ESXi
Mise en place du cluster entre mes deux serveurs
Test du cluster avec errêt du noeud actif
Fêter ma victoire :p
Pour l’instant je bloque à l’étape 5 car je ne trouve pas l’option ou l’outil qui me permettrait de configurer le cluster…
Si je ne m’abuse, en plus de l’installation de VMware Vsphere client pour la gestion des serveurs ESXi, je dois installer un module complémentaire nommé VMware High Availability (HA), outil nécessitant VMWare VCenter server
C’est ce que j’essaye de faire désespérément ces derniers jours avec l’ajout d’une nouvelle machine virtuelle car comme son nom l’indique (VMWare VCenter server) il s’agit d’un serveur.
Désespérément car je suis confronté à des erreurs linux lors de l’installation… (génial..)
Le plus simple pour vous expliquer l’idée générale est l’utilisation d’un cas pratique:
Un Australien tape dans son navigateur l’URL suivante: http://blog.virtuoze.fr
Si on fait une résolution DNS classique, ce nom de domaine pointe sur un serveur français (pas le peine de vérifier, c’est uniquement à titre d’exemple ^^)
Qui dit serveur Français et client Australien dit longue distance entre les deux… donc une page web qui peut prendre du temps à s’afficher.
Certes, sur des connexions ADSL, le site web s’affichera assez rapidement… mais on peut encore améliorer la rapidité d’affichage en réduisant la distance….
Le CDN va justement permettre de rapprocher les deux, le client et le serveur…. mais comment ?
En réalité, le CDN est un réseaux de serveurs dispatchés dans de nombreux pays …. on parle de serveur mais on peut surtout parler de cache mémoire.
En effet, le rôle de ces serveurs géographiquement mieux placés est de répondre à ce client à la place du serveur situé à l’origine en france.
– premier avantage, on décharge le serveur français
– deuxième avantage, le page web s’affiche plus rapidement sur le navigateur de monsieur Kangourou
On a pas encore réellement répondu à la question du comment ca marche ?
Pour ce faire, le réseaux de serveurs CDN doit en amont récupérer l’intégralité ou une partie du site web http://blog.virtuoze.fr situé en france.
C’est ce que le serveur CDN Australien se chargera de faire.
Ensuite en fonction de notre architecture web, les pages web changent plus ou moins souvent, il sera alors possible d’indiquer aux serveurs CDN de se mettre à jour par rapport au serveur français, régulièrement ou pas.
Plus concrètement, je vous ai parlé plus haut de la résolution DNS de blog.virtuoze.fr, pour passer sur le réseaux CDN, il faudra faire pointer le nom de domaine blog.virtuoze.fr sur une @IP CDN.
C’est le réseaux CDN qui, en fonction de la provenance de la requête web, répondra au client par tel ou tel serveur proche de celui-ci.
Voilà une brève initiation à la découverte de cette technologie qui séduit de plus en plus de sociétés. Sociétés qui, finalement, peuvent traiter avec l’international sans avoir peur d’afficher des temps de réponse ridicule.
Pour la petite info, l’hébergeur OVH propose cette solution.
L’AFNIC qui sont les mieux placés pour se présenter:
L’AFNIC, (Association Française pour le Nommage Internet en Coopération) est le gestionnaire du registre des noms de domaine pour les zones géographiques suivantes : .fr (France), .re (Ile de la Réunion), .pm (Saint-Pierre et Miquelon), .tf (Terres australes et antarctiques Françaises), .wf (Wallis et Futuna), .yt (Mayotte). Sa mission est d’assurer la continuité de l’espace territorial français sur internet, ainsi que l’accessibilité de ces domaines depuis n’importe quel point de l’internet. Cette mission comprend aussi l’attribution, par l’intermédiaire de bureaux d’enregistrement , des noms de domaine de premier niveau se terminant par l’une des extensions géographiques sous sa responsabilité (par exemple, « ma-societe.fr » ou « mon-nom-de-famille.wf »).
propose dès aujourd’hui 30 nouveaux caractères pour la création des noms de domaine sous sa responsabilité .fr, .re, .pm, .tf, .wf , .yt
il s’agit de ceux-ci!
à, á, â, ã, ä, å, æ
ç
è, é, ê, ë,
ì, í, î, ï,
ò, ó, ô, õ, ö,
ñ,
ù, ú, û, ü,
ý, ÿ
ß
oe
ce marché sera ouvert à tous uniquement dans 2 mois, pour l’instant seuls les propriétaires des noms de domaines sont prioritaires.
exemple, http://www.microsoft.fr peut acheter www.mìcrosöft.fr, je vous laisse prendre votre calculette et imaginer le nombre de possibilités qui existent ………………….. la gestion des noms de domaine d’une société pourra vite devenir un gouffre financier:
tâches supplémentaire pour les dev et les admins ?
achat de nouveaux domaines
achat de nouveaux certificats de sécurités
problèmes juridiques avec les petits malins..
Mais pourquoi donc réaliser ces achats ?
Tout simplement car si microsoft (gardons cet exemple) ne réalise pas l’achat de ces nouveaux noms de domaine, quelqu’un d’autre, probablement crapuleux pourra le faire dans 2 mois et ainsi monter un site web avec l’url très ressemblante (phishing) http://www.mìcrosoft.fr et je vous laisse ensuite imaginer le pire …récupération des logins/mot de passe, information de carte bleue etc etc..
Alors cette initiative de la part de l’Afnic est elle bonne ? Pas à mon gout.. je vous laisse imaginer les erreurs d’envoie de mail:
« mais non c’est toto@caractère.fr je te dis! »
« ha ok, moi j’avais mis caractere.fr… vieille habitude désolé… »
sans parler de l’investissement financier dont je vous ai déjà touché deux mots plus haut..
Ce sera une réelle « prise de tête »! rien que pour mon dns virtuoze.fr il y a 750 possibilités 🙂 je passerai donc de 8 euros par an à 6000 euros … merci qui ?? merci l’AFNIC.
Et tout ceci dans quel intérêt ? Sommes nous en pénurie de nom de domaine comme pour les @IP en IPV4 ???? Je ne crois pas.. l’AFNIC va s’en mettre plein les fouilles ça c’est certain par contre.
A voir en pratique très prochainement dans tous les cas … de mon côté j’ai avertie ma hiérarchie, j’espère qu’ils auront l’intelligence de regarder ça de très prêt.
Un petit lien de lAfnic qui rappel cette « innovation »
prochainement je vais être amené à vous parler de la solution de virtualisation VMWare ESXi!
Why ? Parce que je souhaiterai tout simplement, en tant qu’admin sys, être transverse sur cette technologie et ainsi, être capable de comparer Hyper-V à ESXi et Citrix XENServer.
Ma plateforme de dev est en cours d’installation, j’ai la chance de disposer de 12Go de ram sur ma bécane ce qui va me permettre d’allouer aisément de la rame à mes futurs VM.
L’idée est simple je disposerai de:
VMWare Workstation pour la gestion des machines virtuelles
Deux VM vSphere en clustering
L’outil de gestion vSphere client sur mon PC
Un ou deux OS invités pour tester le basculement de ces derniers
Le fait de pouvoir virtualiser l’hyperviseur (merci vmware!) c’est top car hyper-v n’offre pas cet avantage … 😦
L’installation de vSphere est « impressionnante » puisqu’il n’y a, hormis « OK » et « NEXT » quasiment aucune interaction avec l’admin, et au final, on arrive sur une interface épurée où l’on ne peut à priori pas faire grand chose.
A partir de là, il faut installer un vSphere Client pour administrer le serveur ESXi. Un peu comme une installation Win2008R2 en mode core et les outils d’admin RSAT.
Que dire sur le Cloud Computing à part qu’on en entend parler aujourd’hui à toutes les sauces, technologie hyper en vogue, qui séduit de plus en plus les sociétés.
Les différents cloud sont les suivants:
Le cloud public: Un prestataire tierce héberge et administre la solution cloud (voir les 3 services ci-dessous) retenue par la société
Le cloud privé: La solution Cloud retenue peut être hébergé soit en interne soit par un prestataire mais est exploité par la société
Le cloud hybride: Cloud qui permet de relier entres eux un cloud privée et un cloud public
à cela s’ajoutent les trois services suivants:
SAAS (Software as as service): Abonnement d’application hébergé dans le cloud, exemple Exchange Online Service ou Lync
PAAS (Platform as a Service) : Permet à une société d’héberger ses applications web dans le cloud sans s’occuper de l’infrastructure qu’il y a autour.
IAAS (Infrastructure as a service ): Tel que son nom l’indique, la société qui héberge ce service chez un prestataire dispose de l’infrastructure virtualisée de celui ci et peut faire évoluer son parc dynamiquement. Elle n’administre pas la virtualisation (les serveurs physiques) mais les OS invités via RDP par exemple.
Pourquoi passer au cloud?
L’externalisation de la gestion du parc informatique apporte un réel souffle aux administrateurs qui peuvent ainsi passer plus de temps à l’administration/peaufinage des services plutôt qu’à la gestion des équipements informatiques. (ajout de disque, mise à jours des firmware, contrat de maintenance….)
Le prestataire externe qui héberge votre solution cloud dispose d’une infrastructure Haute Dispo, clustering, répartiteur de charge, etc.. et qu’aujourd’hui la continuité de service fait partie des priorités .
Parce que vous payer ce que vous consommez, fini les disques durs utilisés à 30% et la ram en attente de nouvelles machines virtuelles
Parce que c’est tendance :p et que je le vaux bien
L’idée est louable, certains vous diront qu’il est tout de même conseillé de garder un DC physique, on peut partager cette idée également.
les conseils que je vous donne:
Sur votre VM ajout d’un second disque (D:\) pour la sauvegarde hebdomadaire de l’etat system de votre DC, personnellement j’ai utilisé un vhd à taille fixe de 20Go
la sauvegarde peut se faire via le planificateur de tache + un petit batch de ce type:
je supprime d’abord l’existant sur D:\ car 20Go ce n’est pas assez pour contenir deux sauvegardes complètes, ensuite la sauvegarde se réalise
Synchroniser l’horloge avec une source externe du type fr.pool.ntp.org
Décocher la synchro de l’horloge entre la vm et son serveur physique sinon l’horloge du DC continuera de se synchroniser sur le serveur Hyper-V, chez nous les serveurs physique Hyper-V ne font pas partie du domaine donc se synchronise nul part.
Spécifier le comportemant de la VM lors d’un reboot de l’hyperviseur, par defaut la machine virtuelle se met dans l’état « enregistré » ce qui peut poser des conflits lors des réplications entre DC par exemple.
récemment je me suis éclaté avec la mise en place d’un cluster de basculement SQL:
Environnement:
-un réseau virtuel externe pour les accès client en 21.11.255.x/24
-un réseau virtuel privé pour le heartbeat et le stockage ISCSI 10.0.0.x/8 (normalement il faut un réseau dédié uniquement au stockage ISCSI)
Toutes les VM tournent sur un serveur physique Hyper-V2 2008 R2 DataCenter sp1
-une VM nommée SQLNoeud1 / 2Go de ram et 2 vCPU / 21.11.255.181 / 10.0.0.2
-une VM nommée SQLNoeud2 / 2Go de ram et 2 vCPU / 21.11.255.182 / 10.0.0.3
-une VM nommée ISCSITarget / 1Go de ram et 1 vCPU / 21.11.255.180 / 10.0.0.1 (ici l’@IP 21.11.255.180 permet uniquement d’administrer la VM à distance)
schéma réseau
Les étapes:
– renommer vos serveurs
– configurer le réseaux (donc une carte en 21.11.255.x et une carte en 10.0.0.x)
– personnellement j’ai désactivé les FW pour des questions de simplicité! un ping nous permet ainsi de vérifier que les vm communiquent bien entres elles
– joindre vos machines virtuelles au domaine local
– une fois vos machines virtuelles redémarrées, faites les mises à jour windows (wsus si vous avez ou windows update of course)
– sur la vm ISCSITarget, installé le logiciel « Microsoft ISCSI Software Target 3.3 »
– configurez votre 1ère cible ISCSI en indiquant son nom exemple « bddsql » puis les @IP des clients qui y auront accès, comme l’@IP 10.0.0.x de vos deux noeuds SQL
Cible ISCSILes initatieurs ISCSI
– il suffit ensuite de créer un disque virtuel de 10Go nommé par exemple quorum.vhd, un second de 40Go bddsql.vhd et un troisième de 10Go msdtc.vhd (vous pouvez aussi créer 3 cibles ISCSI et dans chacunes d’elles mettre soit quorum.vhd soit bddsql.vhd soit msdtc.vhd)
les vhd quorum + bdd + msdtc
– vous pouvez maintenant retourner sur vos VM SQLnoeud1 et 2 et activer l’inititateur ISCSI avec en cible l’@IP de ISCSITarget 10.0.0.x pour que les nouveaux disques attribués « montent », prenez soin de les mettre en ligne, de les initialiser et des les formater.
cible ISCSI
LUNLUN après formatage
– ceci fait, sur vos deux noeuds, installer la fonctionnalité « clustering avec basculement » et dans rôles cochez « serveur d’application » puis Transactions distribuées.
– puis sur SQLNoeud1 par exemple, lancer l’installation de SQL serveur 2008R2 entreprise en mode cluster pour créer le cluster SQL, il vous sera demandé le nom dns du cluster exemple clustersql.domain.com.local, l’@IP virtuelle de ce cluster exemple 21.11.255.x, l’emplacement du quorum, le répertoire où seront stockés les bases de données, ce répertoire devant pointer évidemment sur bddsql.vhd, dans mon cas, F:\quelqueschose\ (vous remarquerez que les disques ISCSI sont marqués comme « réservé » par le système d’exploitation)
– sur SQLnoeud2, lancer l’installation de SQL serveur pour ajouter ce serveur en tant que nouveau noeud au cluster créer précédemment.
– Dans le gestionnaire de cluster on voit que tous nos noeuds sont actifs, on peut donc s’amuser a arrêter le noeud hébergeant le service SQL et voir que le second noeud prend le relais autormatiquement. Dans mes tests, la perte de connectivité lors du basculement de noeud dure entre 10 à 20s.
mes scénario de basculement concluant:
shutdown de la vm
arret de la vm
perte de la connectivité « accès public » en 21.11.255.x
perte de la connectivité « accès ISCSI baie de stockage » en 10.0.0.x
le basculement ne se fait pas lorsque j’arrête manuellement le service SQL, le cluster SQL apparaît comme étant « déconnecté », ce comportement est normal.
vue des noeuds actifsRésumé des disques attachés à ce clustersur SQLnoeud1 on voit que cette VM héberge actuellement les disques + les services SQL et MSDTCFenêtre nous permettant de modifier la vip du service SQL
j’ai fait les screen shot après avoir tout installé …. 🙂 alors veuillez m’excuser pour les screens manquants comme l’installation du cluster et celle d’SQL
Mon ressenti:
Cet environnement de test est réellement pratique car fonctionnel même si l’utilisation d’une réelle baie de stockage serait plus parlant quant aux performances par exemple.
En plus d’être fonctionnel, cette plateforme est plutôt rapide à mettre en place, cela peut être montée en 1/2 journée voir une journée.
L’ajout de noeud permet de réaliser des modifications de configuration de quorum. (par exemple avec deux noeuds, le cluster me recommandait l’utilisation d’un quorum de type « noeud et disque majoritair » alors que l’ajout d’un 3ème noeud nous incite à changer le quorum en un quorum à « noeud majoritaire ».
Ce cluster de basculement, permet d’aborder sagement la haute dispo des applications, en l’occurrence SQL
J’espère que ce pseudo « tuto », vous donnera envie de monter votre propre maquette :p