[gull] Proxmox et HP DL380p G9

Benninger Frédéric benninger at sunrise.ch
Tue Sep 22 21:16:05 CEST 2015


Bonjour,

J’hésite à répondre à toute la liste, le sujet étant un peu particulier, 
je ne suis pas sûr qu'il intéresse beaucoup de monde, de plus on a bien 
dévié de la question initiale.

Le 22. 09. 15 18:07, Stéphane Graber a écrit :
> On Tue, Sep 22, 2015 at 10:01:22AM +0200, Daniel Cordey wrote:
>> On 21. 09. 15 20:29, Benninger Frédéric wrote:
>>
>>> Non plus vraiment, depuis la version 3.4 zfs est supporté par ProxMox.
>>
>> Oui, mais j'imagine qu'il n'est pas facile de faire du scaling avec
>> ça. De plus, KVM n'est pas optimum au niveau perf (bien que 100 fois
>> meilleur que VMWare) et OpenVZ n'a ppus vraiment le vent en poupe.
>> Il serait plus rassurant s'ils avaient fait le choix de LXC !

LXC est prévu dans la V4

>>> Niveau performance, c'est pas si géniale que ça, j'ai l'impression que
>>> les VM se prennent parfois des gros lags.
>>
>> Tu as donc une machine et plusieurs disques ? Le problème est que tu
>> es limité en nombre de canaux I/O avec un seul CPU... De plus, les
>> chipsets des machines non-haut-de-gamme sont assez mauvais en accès
>> concurrents sur le SATA (sans compter les limites du SATA). Il y a
>> donc une asymptote horizontale que tu ne pourras jamais dépasser et
>> qui n'est déjà pas très haute.

Mes tests se sont basés sur une config lowcost que je connais mal, avec 
chipset  Z87 Express, et tout un tas de gadgets à configurer dans le 
BIOS. En prod j'ai du SAS, mais vu le prix des disques... le SSD devient 
aussi intéressant qu'une grappe disque.

>>> Je vais certainement poursuivre dans cette voie et faire du fine tuning,
>>> à moins que je passe directement sur un SSD NVMe 800Go.
>>
>> Oui, forcément le SSD va t'amener de meilleurs perfs, mais... les
>> limites du SATA sont toujours là ainsi que celles du CPU unique. Qui
>> plus est, OpenVZ a un overhead non négligeable en I/O (disques) et
>> j'imagine que ça se dégrade lorsque tu as plusieurs disques.
>
> Les limites du SATA ne s'applique pas à un SSD NVMe étant donné que NVMe
> attache le SSD directement au bus PCI Express.
>
>>
>> SI tu as plusieurs systèmes, pourquoi ne pas passer à CEPH ? De
>> plus, CEPH offre bien plus qu'une simple paralellisation des accès
>> du type RAID0; deduplication, redondance, etc.

Idéalement, je passerais à CEPH ou GlusterFS, mais je n'ai pas les 
prérequis, d'après la littérature, le prix d’entrée est également élevé; 
SSD entreprise pour les logs et les journaux, réseau 10Gbit et 3 configs 
identiques, j'ai choisi de lisser les investissements et la charge de 
travail en ne changeant qu'un serveur par année.

>> En ce qui concerne la virtualisation, j'envisagerais du Docker/CoreOS
>> qui a l'avantage de permettre de monter en puissance facilement.

Dans un concept de virtualisation de systèmes Windows sous Linux, Docker 
me semble pas encore possible puisqu' il est basé sur LXC. Étant donné 
que je dois principalement rapatrier des applications tournant sur des 
postes opérateurs. ( pc isolé ) Si je veux maîtriser le budget, et 
éviter de trop me salir les mains, KVM me semble la solution, je me 
simplifie la vie en centralisant les backups, m’affranchis du matériel, 
gère finement les règles d'accès avec le firewall et fait une 
utilisation rationnelle de l'énergie. Je laisse à l'opérateur écran, 
clavier souris et remplace son PC par un raspberry Pi, administré via 
Ansible. Sans le savoir, l'opérateur fait du RDP jusqu'à sa VM.

C'est temporaire, dans peu de temps, on ne parlera bientôt plus du 
"poste opérateur" qui parfois n'était même pas connecté au réseau et ne 
recevait jamais de mises-à-jours, les fournisseurs se tournent 
lentement, pour le meilleur ou pour le pire, vers des solutions SaaS.

Salutations
   F.Benninger


More information about the gull mailing list