Aller au contenu

Lazer

Administrateur
  • Compteur de contenus

    25 989
  • Inscription

  • Dernière visite

  • Jours gagnés

    1 280

Tout ce qui a été posté par Lazer

  1. @kerjon, tu as certainement la mauvaise version de Nanoboot ou de .PAT.
  2. Voici quelques informations sur la consommation de ce serveur issues de l'outli HP Power Advisor.. HP Proliant MicroServer G7 N54L sans disque dur :Consommation au repos : 28.7 W J'avais mesuré 29W avec le Fibaro Wall Plug, donc tout est OK. HP Proliant MicroServer G7 N54L avec le disque dur fourni 250 Go à 7200 tr/min : Consommation au repos avec le disque en rotation : 35 W Egalement vérifié au Wall Plug, ce disque dur de 7200rpm consomme environ 6 à 7W en rotation sans activité Pour des disques durs de 5400rpm, tels que les Western Digital RED, il faut compter environ 4W en rotation sans activité. Avec cela vous pouvez calculer le cout annuel en électricité, sachant que 1W pendant 1 an coute 1,19 € au tarif EDF HP/HC actuel. Mon serveur a actuellement 2 disques durs, il consomme 40W au repos, donc il me coute 48€ annuel (je ne compte pas les période d'activité CPU et disques qui sont très courte en comparaison du temps total passé à attendre). Ce qui est intéressant c'est que ces captures d'écran nous donnent aussi la conso maximale, et la puissance nécessaire pour l'onduleur (en VA). La dissipation calorifique (en BTU) n'a pas d'intérêt pour une utilisation à domicile (sert à dimensionner les climatisations dans les datacenters). Pour information, j'ai aussi fait la simulation sur le Proliant G8 : Et là c'est étrange, c'est qu'il nous annonce 53W au repos sans disque dur, alors que sur les forums les gens disent qu'il consomme à peu près la même chose que le G7 N54L. Et même mieux, en remplaçant le Celeron par un Xeon à faible TDP, les gens disent que la consommation au repos baisse encore plus, tout en apportant plus de performance lorsque nécessaire, et quelques fonctionnalités utiles pour la virtualisation avec ESXi (comme DirectPath I/O permettant d'affecter une carte PCI à un VM.... si c'est un contrôleur SATA/SAS qui est affecté à une VM, il n'y a plus besoin de mapping RDM et les performances sont bien supérieures).
  3. Je ne suis pas expert en LUA, mais je verrais bien les optimisations suivantes afin de mieux utiliser les variables et limiter les appels aux fonctions getValue(), consommatrices de temps : --[[ %% properties %% globals --]] local id_module_virtuel = fibaro:getSelfId() local allumer = tonumber(fibaro:getValue(31, "value")) == 0 local eteindre = tonumber(fibaro:getValue(31, "value")) == 1 if (allumer) then icon = 1079 elseif (eteindre) then icon = 1080 else icon = fibaro:getValue(31, "currentIcon") end fibaro:call(id_module_virtuel, "setProperty", "currentIcon", icon) local conso = fibaro:getValue(46, "value") fibaro:call(id_module_virtuel, "setProperty", "ui.Label1.value",conso.. " W") local temp = fibaro:getValue(213, "value") fibaro:call(id_module_virtuel, "setProperty", "ui.Label2.value",temp.. " °C") fibaro:log(temp.." °C - "..conso.." W" ) fibaro:sleep(4000);
  4. J'ai aussi remarqué que le FGBS Universel a une porté moins importante que les modules alimentés en 230V.
  5. Fredo, je ne pense pas que ce soit l'activité d'une VM Windows utilisée une fois tous les 36 du mois qui a cramé ton disque. Tu avais certainement un modèle défectueux.
  6. @Merciers, Je ne sais pas ce que ça vaut, mais ça a le mérite d'exister, de n'être pas trop cher, et ça doit certainement couvrir tous les concepts de bases pour débuter : Virtualisation avec VMware vSphere 5
  7. @PITP2, tu me cites, mais comme je n'étais jamais intervenu sur ce topic, ça ne doit pas être pour moi. Oh wait, je sais pourquoi.... rapport àla tige longue....
  8. A votre avis, dans la boite, wago, domino, ou .... épissures ?
  9. Ouh là là , AS400 c'est encore autre chose, même les disques sont formatés différemment (formatage de bas niveau, différent du formatage du file-system qui se fait après) Aujourd'hui les AS400 sont tous virtualisés derrière des Virtual I/O Servers (la techno de virtualisation IBM sur l'architecture POWER équivalente à ce que fait VMware sur x86), et le stockage est sur des baies SAN. Même en AIX, on ne fait quasiment jamais de RAID matériel, car on a un LVM qui fonctionne depuis toujours (un vrai LVM, pas un LVM jamais bien terminé comme sous Linux....), donc on fait des miroirs logiciels et c'est bien plus fiable et souple d'utilisation (miroir à 3, c'est sympa... ) Dans la gamme IBM xSeries, sur laquelle je suis moins à l'aise, la carte RAID (du LSI depuis pas mal d'années) ne récupère jamais le RAID, je n'ai jamais vu ça. C'est con que je n'étais pas présent quand le technicien a fait la manip chez mon client, car ça m'aurait intéressé. Dans mon PC workstation, j'ai une Adaptec 7805 avec 1 Go de cache et la batterie de type condensateur (pas d'usure). Comment dire... ça arrache !!! En RAID 5 avec des disques Hitachi et Western Digital dédiés au fonctionnement en RAID (gamme RE), c'est ultra fiable. Mais le plus intéressant ce sont les performances (quand je travaille dans le cache, l'élément limitant à 2000 Mo/s c'est ..... le bus PCI-Express 2.0 4x !!! Depuis que je suis passé au PCI-Express 3.0 ça va mieux... lol). Mais surtout, je fais des sauvegardes, car le RAID ne protège pas contre une fausse manipulation. Quand je me serai décidé à acheter un Proliant G8, je pourrai faire une réplication automatisée dans mon garage.
  10. Je voulais juste partager cette pépite découverte dans les plus sombres recoins du net.... Je précise que ce n'est pas chez moi ! Ce programmateur mécanique permet d'envoyer la phase dans le fil pilote pour passer en mode éco.
  11. En RAID 1 ou dans les autres types de RAID ? C'est peut-être différent chez IBM après tout...
  12. j'espère que le FGSS a détecté la fumée, et que GEA a coupé le Wall-plug
  13. Bah, euh.... c'est exactement ce que j'ai décris, non ? La baie Icy Dock occupe l'emplacement 5.25. Avec ce setup, j'ai : - 4 disques 3.5 hot-swap dans leurs racks verticaux d'origine - 1 disque 3.5 hot swap dans le slot Icy-Dock - 1 disque/SSD 2.5 hot swap dans le slot Icy-Dock Évidement, il ne faudra pas s'amuser à faire du hot swap sur le SSD si celui ci héberge le datastore, sinon ça ne va pas bien se passer..... je songe à démonter le bouton d'extraction en façade du dock.
  14. J'ai acheté ça : Icy Dock MB971SP-B Duo Disque dur interne 2,5"/3,5" SATA/eSATA/IDE Le SSD sera connecté sur le port SATA interne du lecteur CD avec un bête câble SATA. Le disque 3,5" sera connecté sur le port eSATA externe avec ça : eSATA Vers SATA Serie Extérieur Blindé câble 1 m Ne pas oublier une alimentation en Y : 1xMolex => 2xSATA
  15. 3h - il faut passer par le périf, une épreuve en soi - j'ai maintenant une voiture... disons moins puissante ce topic part en couille....
  16. Je suis à303 km de mes bières Heureusement il y en a ici
  17. Héhé avec plaisir mais je ne sais pas quand.... En fait pour l'install c'est facile, c'est comme un disque. EDIT : ah si, comme c'est du 2,5", il te faut un adaptateur pour faire une install sérieuse et qui ne pendouille pas dans le serveur. Un rack Icy Dock ferait l'affaire dans la baie 5;25"
  18. Elles sont toutes pareilles les femmes, la mienne n'a pas du tout aimé le text-to-speech sur le Sonos.... la réaction a été... disons... radicale Je suis à 100% pour le SSD : - plus fiable - plus rapide - plus petit - plus silencieux - plus économiques électriquement J'ai le miens (Intel 120 Go) qui est prêt à être installé à la place du 250 Go, il faut juste que je trouve le temps (et que je sois chez moi pour cette opération matérielle...) Pour les simulations de consommation électrique, avec le Microserveur c'est assez limité, mais sur les gros serveurs HP qui consomment beaucoup c'est important pour le dimensionnement : HP Power Advisor Ce qui m'a rassuré c'est qu'avec ces outil j'ai retrouvé à peu près les consommations que j'ai mesuré au Fibaro Wall Plug
  19. 2,5" ça consomme moins, ça fait moins de bruit, mais c'est plus cher à l'achat pour une capacité égale qu'un 3,5". Le disque posé sur l'étagère, ça ne craint rien tant que personne ne shoote dans le serveur. Si c'est juste l'affaire de quelques jours, généralement ça ne pose pas de souci.
  20. Ah ok je pensais faire ça aussi, et puis avec de la pâte thermique pour améliorer le contact. Mais je pense qu'il y a un petit delta par rapport à la température interne réelle. C'est pour ça qu'il serait intéressant d'arriver à choper l'info depuis la thermistance directement, puisque c'est elle qui pilote le thermostat du ballon, pour la sécurité.
  21. Comment récupères-tu la température de l'eau chaude ? @ploznher, relis bien mon message du 02 octobre 2014 - 23:43 en première page, pour bien comprendre le mécanisme de la batterie.
  22. Salut le copain cobière SI c'est juste ton datastore qui est mort, et que tes disques de données (RDM SHR) vont bien, alors tu n'as pas perdu grand chose. Par contre la VM Windows sera forcément perdue. Pour vérifier, dans vSphere Client, il y a un onglet configuration puis stockage, tu dois voir les autres disques de données (ceux qui sont mappés en RDM) Procédure rapide : - installe un nouveau disque/SSD - crée un nouveau datastore - importe un nouveau nanoboot - recrée la VM avec le nanoboot et les disques RDM - relance la VM Xpenology - et normalement il va te proposer l'assistant pour migrer, tu réinjecte ton DSM-xxx.pat en lui disant bien de conserver les données. - tu bois une bière bien fraiche pour fêter ça PS : ton disque est sous garantie HP, tu les appelles et il viennent chez toi te le changer, les Proliant c'est du matos Pro. PS2 : aujourd'hui au taf' j'ai joué avec un outil HP de simulation de conso électrique, j'essaierai de partager les résultats demain, c'est intéressant.
  23. Je ne suis pas sur de bien comprendre ce que tu as fait avec ton 250 Go... Normalement il est affecté au datastore (banque de données), et donc tu peux créer un nouveau volume virtuel dedans et le présenter à la nouvelle VM Windows que tu veux créer. D'ailleurs, si tu as respecté le tuto, dans ce 250 Go, tu as uniquement le nanoboot qui pèse 32Mo, soit rien du tout ! Quand aux tutos/livre/guide, faut bien voir que la suite VMware est un logiciel professionnel, dont les licences sont hors de prix pour les entreprises. Et ça fait marcher tout un business de prestataires payés fort cher pour installer et configurer. Ces mêmes prestataires qui ont reçu des formations de plusieurs semaines dont le cout moyen à la journée est de 500€ environ. Donc trouer un tuto complet et gratuit, bon courage ! Tu trouveras quelques bribes ça et là , quelques infos sur les forums (surtout celui de VMware), mais après à moins de connaitre des admins dans ton entourage professionnel, il y a un moment où tu sera bloqué. Perso je suis un peu aidé car je bosse dans une boite de service informatique, et y'a forcément tout un tas de consultants certifiés. Bon en même temps, pour un ESXi tout seul dans son coin à la maison, on a quand même vite fait le tour des possibilités (pas de vMotion, HA, DRS, j'en passe et des meilleures) Dernier point, pour les sauvegarde des VMs : en gratuit : tu arrêtes la VM, et tu copies le contenu de son répertoire (VMDK, VMX, etc...) puis tu redémarres la VM. En payant : licence vSphere Infrastructure, et après tu payes un logiciel tiers de sauvegarde comme par exemple le célèbre Veeam, ou l'usine à gaz TSM (ça c'est ma spécialité.... oui j'aime me faire du mal)
  24. Euh, le N54L et le G7 c'est pareil Mais là je me tâte pour le G8 avec les récentes baisses de prix depuis les rumeurs du microserver G9. La conf du RAID est stockée dans la flash/eeprom de la carte RAID, pas sur les disques. Donc si tu perds la carte, alors tu perds l'ordre des disques, et tu ne peux pas récupérer ton RAID. A ma connaissance, les cartes RAID (Adaptec, LSI, ...) n'intègrent pas d'outils pour scanner les disques et "deviner" l'ordre initial des disques dans le RAID. Bon OK en miroir RIAD-1 il n'y a pas d'ordre, et on peut généralement forcer la recréation du RAID-1 sans reformatage, mais ça reste un cas particulier qui n'est pas applicable aux RAID-0, RAID-5, RAID-10, etc... Sinon il existe des outils logiciels non supportés qui scannent les disques et permettent de retrouver l'ordre des disques et ainsi reconstruire les données, mais c'est assez délicat. Bon là pour mon client, le technicien IBM a changé la carte RAID, la carte mère, et la batterie !!! Apparemment ils ont déjà eu le cas, et il faut changer les 3 d'un coup pour corriger ce problème particulier de carte HS au bout de 2 jours. Finalement il a pu récupérer les données sur les disques par je ne sais pas quel miracle, car je n'étais pas là pour assister à la manip, et mon client n'a pas su m'expliquer ce qu'il a fait. Donc les technicien du support ont des procédures que les simples mortels ignorent !
  25. En fait, quand un Linux alloue un fichier, il cherche un espace contigu pour allouer entièrement ce fichier. Tandis que Windows, lui, si le fichier est grand, il va l'éclater en plein de petits bouts là où il trouve un peu de place. Ceci dit je pense que dans les dernières versions de NTFS, il faut comme les Linux, donc c'est plus propre. Mais en aucun cas Linux ne fera de réorganisation automatique.... l'impact sur les perfs durant la phase de réorg est beaucoup trop importante, sur un serveur en prod c'est inenvisageable via à vis des utilisateurs. Sur mon Xpenology, je ne fais que remplir les disques en permanence, donc comme je ne vide jamais, il n'y a pas de fragmentation qui se crée. Par contre si tu copie/supprime/déplace souvent de nombreux fichiers, alors la fragmentation est inévitable à terme. Par contre dans mon cas, comme je remplie le disque séquentiellement, je me rapproche de la fin du disque, qui est moins performante. Au début j'avais du 90Mo/s en écriture dans DSM sur ESXi, puis 80, et maintenant je suis plutôt autour des 70 Mo/s. Donc la position sur le disque a un impact énorme aussi, comme sur un système non virtualisé. Le truc c'est que la virtualisation ralentie toujours les perfs par rapport au max possible du matériel. Si vraiment c'est un problème, alors faut passer à la carte RAID matérielle, avec chipset dédié, mémoire cache, et batterie de protection. Là c'est garanti, plus aucun problème de perf, ou alors faut vraiment forcer pour atteindre les limites, à titre domestique.
×
×
  • Créer...