Lazer Posté(e) le 27 février Auteur Signaler Posté(e) le 27 février C'est surtout que si on met un disque de 22 To dans une grappe de disques 24 To, alors tous les disques sont limités à 22 To, donc ça fait pas mal de place perdue (2 To x le nombre de disques de 24 To), et donc autant argent perdu. Les contraintes du RAID.... c'est une des nombreuses raisons pour lesquelles je n'avais jamais fait de RAID jusqu'à présent dans mes serveurs à domicile, c'est beaucoup de contraintes pour un bénéfice faible voir inexistant pour un usage domestique. Rappel : le RAID n'est pas une sauvegarde. A se répéter en boucle.
jojo Posté(e) le 28 février Signaler Posté(e) le 28 février nos 2 messages s'étaient croisés (le tiens avec les disques de 24 To, n'était pas encore publié quand j'écrivais ma bêtise)
mprinfo Posté(e) vendredi à 10:10 Signaler Posté(e) vendredi à 10:10 @Lazer pourrais tu me donner la ref de ta carte mère stp Tu es parti sur du LGA1700 ?As-tu déjà commencé l'assemblage de ton serveur ?Si oui connais tu la consommation CPU + Ram + Carte mère a "vide" ?Merci d'avance pour ta réponse J'ai trouvé cette ref EC266D4-4L qui et au format atx mais pas de 10gb pour le réseauJ'ai toujours préféré le format atx au format micro atxEnvoyé de mon Pixel 8 Pro en utilisant Tapatalk
Lazer Posté(e) vendredi à 11:13 Auteur Signaler Posté(e) vendredi à 11:13 Désolé j'ai pris du retard dans mon descriptif, oui j'ai déjà quasiment tout commandé et reçu, il me manque juste le dernier processeur Xeon que je suis censé recevoir avant-hier hier aujourd'hui si UPS se décide à travailler.... Le plus gros Xeon, celui qui doit aller dans mon nœud principal qui aura tous les disques durs et la VM TrueNAS. Les 2 autres (petits) nœuds sont déjà montés, installés et opérationnels.... mais pas utilisables, car un cluster haute-disponibilité de 3 nœuds avec seulement 2 nœuds, c'est pas prêt à entrer en production. Mais déjà, oui c'est bien du LGA1700, et coté carte mère j'utilise ça : Mini-ITX : 1 x ASRock Rack EC266D2I Micro-ATX : 2 x ASRock Rack EC266D4U La EC266D4-4L c'était mon premier choix pour le nœud NAS grâce à son nombre de slots PCIe qui m'aurait permis d'ajouter des cartes plus tard (notamment un GPU si jamais j'avais l'intention de faire de l'IA locale plus tard par exemple), sauf qu'elle était totalement indisponible en Europe entière tout l'hiver... et là elle est de nouveau en stock. Pas de chance. Si ton boitier te permet de monter une carte mère au format ATX, c'est clairement le meilleur choix, car plus évolutif coté entrées/sorties. Pour le 10 GbE, c'est ce que je voulais initialement intégré à la carte mère, mais comme je l'ai rapidement expliqué j'ai changé d'avis et c'est un grand NON maintenant, car le 10 GbE sur port RJ45 cuivre c'est une plaie sans nom : consommation (et chauffe) très importante, plusieurs Watts perdus (jusqu'à 5W par port) en continu, qu'il y ait de la communication réseau ou non. C'est pour ça que je ne vais utiliser que du 10 G avec câbles DAC, d'une part c'est moins couteux, et d'autre part la consommation est plus faible (compter 0.5 W par port, c'est imbattable), et en prime la latence est plus faible (et ça c'est important pour mon réseau de réplication CEPH) Donc 1G RJ45 sur la carte mère pour l'administration de Proxmox, et carte PCIe Intel X710-DA2 ou DA4 pour les connexions 10G DAC. Ce modèle de carte Intel en particulier est celui qui propose la plus faible consommation. J'ai trouvé des clones à pas cher sur Aliexpress pendant le Black Friday (chipset Intel original, juste le PCB qui est un design chinois générique). Idem pour la carte SAS Broadcom d'ailleurs, qui va gérer les disques durs. La consommation à vide pour l'instant oscille entre 25 et 40W par nœud, mais ça ne t'avance pas beaucoup car je n'ai pas encore décrit la configuration matérielle détaillée, et je n'ai pas encore appliqué toutes les optimisations permettant de réduire la conso (BIOS, ASPM, C-States, vitesse des liens PCIe, paramétrages noyaux Linux, etc). Je détaillerai ça plus tard de façon détaillée, quand j'aurai joué avec. Et cette consommation n'est pas tout à fait "à vide", car sur chacun de ces 2 nœuds il y a aussi : la carte réseau Intel X710-DA2 10G un SSD NVMe de gamme pro de chez Kinston sur le slot M.2 un SSD NVMe de gamme pro de chez Micron au format U.3 (raccordé sur un port Oculink PCIe x4 de la carte mère) qui consomme déjà 5W rien qu'à lui tout seul en idle, sans activité.... c'est un monstre de puissance. Forcément, ce luxe que je me suis imposé a un cout énergétique certain. des ventilateurs (ventirad+boitier), même si en ne prenant que des Noctua, la consommation est très faible, surtout piloté en PWM à rotation lente Je précise que les SSD sont tous de gamme professionnelle, j'en parlerai de façon plus détaillée plus tard, mais ça a son importance sur la consommation : dans le monde pro, on se moque de la consommation, on cherche fiabilité + performance. Rien à voir avec les SSD Crucial, Samsung, et compagnie qu'on installe dans nos PC classiques, dont la faible consommation est le critère n°1. En terme de consommation, il y a un rapport 1 à 10, voire 1 à 100 selon l'activité I/O entre les gamme grand public et pro. Je l'avais dit ton mon cahier des charges, je privilégie la fiabilité, et la performance, bien avant la consommation. C'est pour mon projet, ce n'est pas ce que je te recommande, c'est pour ça que je prend le temps de décrire mes chois et les conséquences.
mprinfo Posté(e) vendredi à 12:37 Signaler Posté(e) vendredi à 12:37 Super merci pour ces informationsVoilà les prix que je trouveEC266d4u https://meta-preisvergleich.de/index.cgi?q=ec266d4u&c=kategorie&id=ec266d4u__kategorie&offset=&neu=1&qq=ec266d4-4lhttps://meta-preisvergleich.de/index.cgi?q=ec266d4-4l&c=kategorie&id=ec266d4-4l__kategorie&offset=&qq=Environ 150 euros de différence Je démarre de zéroDonc pour le boîtier il faudra faire attention à la profondeur si je pars sur du rackableSi tu as une marque à me conseiller je suis preneurPour l'alimentation je pense partir sur du 250wLe plus gros problème c'est la RAM car pour le moment c'est vraiment trop chère.En CPU je vais regarder pour un xeon en basse consommation J'ai commencé a jouer avec proxmox c'est perturbant cela change de ESXi au niveau graphiqueJe pense faire comme toi passer sous truenas pour le stockage pour moi c'est un retour aux sources j'ai commencé avec freenas avant de passer sous xpenology. Pour les caméras je vais utiliser xpenology DVA1622 qui a l'avantage d'avoir 8 licences gratuites. Pour le reste haproxy et mon serveur WEB ce sera VM debianEnvoyé de mon Pixel 8 Pro en utilisant Tapatalk
Lazer Posté(e) vendredi à 13:42 Auteur Signaler Posté(e) vendredi à 13:42 En boitiers, Silverstone c'est le top qualité, avec un choix incroyable de modèles rackable ou tour, certains sont même montables dans les 2 configurations. Comme tu dis, le vrai problème c'est la RAM, regarde l'évolution du prix des barrettes que j'utilise, sachant que j'en ai 4 des comme ça; j'ai mis le curseur au moment où je les ai acheté : Fait attention, il faut vérifier, mais j'ai peur que partir sur du Xeon risque de t'imposer de la RAM ECC, et avec les prix actuels, ce n'est plus possible. A ta place, je choisirais en premier la RAM, et en fonction de ce que tu trouves, tu montes le serveur autour. Donc après la RAM, tu choisi la carte mère, processeur, etc... peut être qu'au final ça ne sera pas de Xeon mais du Core quelque chose, avec un socket différent de LGA1700. En plus, si la consommation est importante pour toi, un Core descendra plus bas qu'un Xeon (gamme pro, optimisé pour la perf...) Attention aux SSD aussi qui ont déjà méchamment augmenté, c'est pour ça que j'avais fait un peu de stock avec mes 20 To de SSD..... Il t'en faut au moins un pour le disque de boot et le datastore des VM. Pour Surveillance Station, après des mois de réflexion j'ai trouvé comment je vais faire : - dans un 1er temps, monter une VM Xpenology dédiée exclusivement à Surveillance Station (équivalent à ce que j'ai actuellement sur mon HP Gen8 en fait) - dans un second temps (l'année prochaine ?) : tout basculer en Unifi, ce qui implique d'acheter un NVR de la marque (surement le modèle UNVR), mais aussi leurs caméras (la gamme G6 est top) De toute façon aujourd'hui, Synology s'est endormi sur ses lauriers. Plus d'évolution de Surveillance Station, tandis que Unifi avance à une vitesse folle, quand tu vois l'interface et les capacités d'IA, ça dépasse déjà Syno. Mais l’investissent financier initial est assez important. Avec la pénurie des composants, c'est pas le bon moment pour se monter une nouvelle machine, tu t'y prends au mauvais moment (mais ça sera encore pire dans quelques mois....) Sinon, j'ai reçu mon Xeon, je peux commencer à monter le nœud principal ce week-end
mprinfo Posté(e) vendredi à 13:58 Signaler Posté(e) vendredi à 13:58 Merci pour toutes ces informations. Punaise je viens d'acheter 2 hikvision j'ai pas voulu partir sur du unifi car je trouve le prix des caméras trop élevé par rapport a hikvision. Tu arrives à avoir des G3 à moins de 200 euros. Je viens d'installer une G2 panoramique une tuerie de nuit. Pourtant j'ai un udm donc je pouvais installer protect sans coût supplémentaire. Pour le serveur il n'y a pas d'urgence mes 2 gen8 fonctionnent bien mais je commence à être limite côté RAM
Lazer Posté(e) vendredi à 14:06 Auteur Signaler Posté(e) vendredi à 14:06 En fait, si tu compares ce qui est comparable (hors piratage) : des caméras Hikvision de qualité + un NAS Synology + les licences Surveillance Station des caméras Unifi G6 + un NVR Unifi + aucune licence Tu verras que Unifi n'est plus plus cher, et même moins cher, mais avec une interface bien plus évoluée, une intégration IA native (alors que Hikvision + Surveillance Station c'est bancale comme tout....). Attention je parle bien des caméras UniFi G6, la qualité d'image est excellente, la reconnaissance IA assez fiable, rien à voir avec les générations précédentes. Du coté de chez Hikvision, il faut commencer à mettre assez cher pour avoir l'équivalent.... presque aussi cher en fait. Je vais me faire démonter par notre fanboy Synology du forum, mais si tu fais le tour des autres forums, chaines YouTube, groupes Facebook (bon OK pas très crédible celui-là), tu verras que Synology est complètement à la dérive, ils ne tiennent plus la comparaison. Reste que Syno a une solution NAS tout intégrée, fonctionnelle et ergonomique, c'est probablement tout ce qu'ils leur reste. Mais bon là encore, quand tu vois la vitesse d'évolution des NAS Unifi, ce discours ne tiendra peut être même plus d'ici 1 an. 1
mprinfo Posté(e) dimanche à 08:08 Signaler Posté(e) dimanche à 08:08 Perso je préfère ne pas m'enfermer dans une marque Tu vas me dire oui mais tu es full UNIFI pour la partie réseau, Je viens de jouer un peu avec UNIFI PROTECT pour voir On peut installé de caméra autres que Ubiquiti
Lazer Posté(e) dimanche à 09:14 Auteur Signaler Posté(e) dimanche à 09:14 (modifié) Oui mais c'est ultra limité, compatibilité Onvif uniquement, pas de reconnaissance d'événements par IA.... Aucun intérêt en pratique, c'est juste de l'enregistrement bête et méchant, ça revient presque à la solution Synology Surveillance Station. Ils proposent un module externe pour ajouter l'intelligence aux caméras lamdba, mais financière ça n'est pas vraiment intéressant, autant acheter directement les caméras Unifi. Franchement, je ne te dis pas que tu dois t'enfermer dans une marque, mais regarde ce que propose vraiment l'offre Unifi Protect avec les caméras récentes G6, tu verras qu'ils ont carrément pris plusieurs années d'avance sur Sylonogy. Et les interactions avec les portiers et contrôles d'accès de la même marque, c'est bien foutu. Moi ça me fait réfléchir, et je pense qu'à l'avenir je basculerai sur cette solution. En attendant je n'achète plus de caméras Hikvision (j'en ai déjà assez de toute façon) Et comme dit, mon nouveau serveur aura une VM Syno uniquement pour conserver Surveillance Station quelques temps, le temps de voir comment je fais évoluer ma vidéosurveillance. Modifié dimanche à 09:15 par Lazer
Lazer Posté(e) dimanche à 11:23 Auteur Signaler Posté(e) dimanche à 11:23 Architecture matérielle Configuration des nœuds du cluster Les 3 nœuds n'auront pas la même configuration matérielle, même si l'architecture sera la même afin de permettre une migration des VM et applications entre chacun des 3 nœuds. A ce sujet, il est essentiel d'utiliser des processeurs de la même famille (= même jeu d'instructions) afin de permettre aux VM qui s'exécutent sur un noeud de pouvoir migrer à chaud d'un serveur à un autre. Sans cela, la migration à chaud est impossible et doit se faire à froid, afin qu'au redémarrage la VM découvre le jeu d'instruction du serveur cible et s'adapte en conséquence. Comme mon cahier des charges est de monter une infrastructure la plus résiliente possible, j'ai fait le choix de m'orienter vers des composants "professionnels", à savoir pas des produits issus du monde grand public qu'on trouve dans les PC classiques. Je sais que plein de personnes montent des serveurs avec des composants grands publics et que ça fonctionne très bien, mais quand on creuse le sujet (sur les forums spécialisés Reddit, etc) on s'aperçoit qu'il y a toujours un moment où c'est instable, ça plante, ou bien qu'il faut remplacer un composant de manière prématurée. Je le disais, je cible au moins 15 ans de durée de vie pour ce système, pas question que ça lâche avant. En réalité, dans le langage marketing moderne, ce n'est pas le terme "pro" que je devrais utiliser, mais "entreprise". Tant pis pour l'abus de langage. Surtout, j'ai besoin de certaines caractéristiques des composants pro pour le bon fonctionnement de mon système. En vrac : une interface IPMI sur la carte mère pour la gestion à distance (équivalent ILO, iDRAC, IMM2, etc) de la RAM ECC pour la correction d'erreur, particulièrement pour TrueNAS qui utilise massivement la RAM comme cache disque pour les performances des SSD avec PLP intégré (Power Loss Protection), totalement indispensable pour CEPH une connectivité réseau 10 Gb/s pour la réplication CEPH J'ai longtemps voulu partir sur des processeurs AMD EPYC 4005 Grado (architecture Xen5), cependant j'ai renoncé à cause de la consommation élevée au repos (en idle) de ces processeurs. Je suis donc revenu au classique choix Intel Xeon 6, qui permet des optimisations poussées pour descendre assez bas. Il s'agit avant tout d'un homelab, qui aura une très faible activité la majeure partie du temps, donc j'ai privilégié le choix raisonnable de la consommation électrique réduite. C'est dommage d'un point de vue performance, car pour le même prix on a quasiment 2 fois plus de performances chez AMD, de son coté Intel est clairement à la traine. Le 1er nœud, qui portera la VM TrueNAS, sera le mieux équipé. Les 2 autres nœuds seront moins richement dotés, ce qui permet de réduire la facture d'achat, et déjà plus que suffisant pour mes besoins actuels (et même surdimensionné...). Mais si le besoin s'en fait sentir plus tard, je pourrai toujours faire évoluer leur configuration (ajout de RAM, stockage, etc... voire remplacement du CPU). Nœud n°1 : NAS Gros boitier rackable 19" Gros CPU RAM 32 Go Carte SAS pour connecter tous les disques durs Nœud n°2 Petit boitier rackable 19" Petit CPU RAM 16 Go Nœud n°3 Boitier Mini-ITX Petit CPU RAM 16 Go Comme on le constate, les 2 premiers nœuds seront en boiter rackables 19", destinés à être installés à la cave dans un futur rack à venir. Tandis que le 3ème nœud dans un boitier compact au format Mini-ITX, l'objectif étant de le déporter au rez-de-chaussée, dans le placard qui héberge actuellement mon Micro-serveur Gen8. En effet, j'ai besoin d'y connecter une antenne EnOcean en USB car j'ai encore quelques modules utilisant ce protocole. Demain, si je déploie du Home Assistant, je pourrai également y connecter une antenne Z-Wave, Zigbee, Thread, Whatever... sauf si j'utilise une antenne déportée Ethernet POE, mais en tout cas je en serai pas embêté par la portée radio. Réseau Chaque carte mère dispose de 2 connexions 1 Gbit/s sur ports RJ45. Je vais ajouter en plus une carte d’extension PCIe à 10 Gbit/s sur chaque nœud, avec slot SFP afin d'y brancher des câbles DAC. J'ai déjà expliqué que j'évite le 10 Gb sur port RJ45 à cause de la consommation et donc de la chauffe très importante. L'utilisation de câbles DAC est bien plus efficient d'un point de vue énergétique, mais aussi financier (si le câble DAC coute plus cher que le câble RJ45 Cat 6a, le gros gain se fait sur le coût des ports coté serveur et coté switch). En plus, le câble DAC est la solution présentant la plus faible latence, et cet aspect est particulièrement important pour les performances de mon réseau de réplication CEPH, car chaque écriture d'une VM sur un nœud ne sera acquitté que lorsque l'ensemble des 3 nœuds auront validé l'écriture sur leur SSD local. J'ai même pensé à utiliser du 25 Gbit/s, pas tant pour le débit, que pour la latence encore plus faible, mais d'une part je n'ai pas trouvé de prix intéressant, et d'autre part ça aurait augmenté la consommation électrique. On verra dans le futur si l'utilisation de 25G s'avère nécessaire, je pourrai toujours remplacer les cartes PCIe. Pour économiser un peu, et puisque je n'ai pas besoin de 10G pour les VM des nœuds 2 et 3, celles-ci utiliseront le réseau 1G pour la connectivité externe. Le nœud TrueNAS, lui, a besoin de connectivité rapide pour les échanges de gros fichiers, donc du 10G pour ne plus être bridé par ma connexion interne fibrée de 8 Gbit/s (même si je suis bridé à 5 Gbit/s réels par mon routeur avec IDS/IPS activité) Donc pour chaque nœud, j'ajoute la carte 10G suivante : Nœud n°1 : 4 x 10 Gbit/s Nœud n°2 : 2 x 10 Gbit/s Nœud n°3 : 2 x 10 Gbit/s Le réseau CEPH entre les 3 nœuds sera de type Full Mesh, c'est à dire que chaque nœud communique avec son voisin en connexion directe point à point, sans passer par les switchs. Cette architecture est absolument critique pour la haute disponibilité du cluster dans mon projet, car sinon un reboot du switch (par exemple lors d'une mise à jour de firmware) ferait tomber l'ensemble du cluster en quelques secondes. En outre, cette connexion point à point permet également de gagner de précieuses micro-secondes de latence, comme évoqué précédemment pour la réplication. Enfin, cela permet d'économiser des ports coté switch, donc réduit très significativement la facture, et permet également de grappiller encore quelques watts de consommation électrique. Sur le nœud hébergeant TrueNAS, les 2 ports 10 G seront agrégés en LACP, non pas que ça soit indispensable, mais puisque j'aurai 2 ports disponibles, autant les utiliser. En outre, cela apportera de la redondance entre les 2 liens, même si à l'extrémité ce sera connecté au même switch. Le 1er port RJ45 de chaque nœud sera dédié au management du cluster, ainsi qu'au réseau Corosync, qui permet au cluster Proxmox de communiquer (détection des pannes entre nœuds du cluster). Comme il n'y aura pas de traffic VM sur cette interface, peu de chance de saturer le lien et donc de faire tomber ce lien Corrosync. Le 2nd lien Corosync sera lui sur le même réseau Full-Mesh que CEPH, là encore pour s'affranchir d'une indisponibilité du switch qui ferait tomber le cluster Proxmox (il y a 2 clusters en fait dans mon infrastructure, celui de Proxmox, et celui de CEPH). Selon le nœud, les 2 liens 10G LACP ou le 2nd lien 1G RJ45 seront utilisés pour le bridge portant le traffic des VM, avec les différents VLANs taggués (DMZ, etc) Une dernière remarque sur les câbles DAC, on est limité à une distance maximal de 3m avec un câble passif (au delà il faut passer sur du câble actif, c'est à dire avec fibre optique et conversion/amplification aux extrémités, c'est couteux et consommateur). Cela ne pose pas de souci, les 2 serveurs dans le rack seront connectés avec un câble DAC court de 50cm, tandis que le nœud 3 situé à l'étage juste au dessus sera interconnecté avec des câbles de 3m. Note : la connexion d'administration IPMI 1G RJ45 dédié sur la carte mère n'est pas représentée sur le schéma car n'entrant pas dans le fonctionnement du cluster, il n'y a pas de transfert de données dessus. Stockage Je l'ai dit précédemment, les SSD seront de type pro (ou plutôt enterprise), c'est à dire qu'ils doivent disposer de la fonctionnalité PLP (= Power Loss Protection) qui sont des petits condensateurs embarqués dans le PCB, à coté du contrôleur et des puces de Flash, pour secourir la mémoire tampon en cas de panne d'alimentation, pour prévenir toute perte de données qui ne seraient pas encore physiquement écrites sur les puces Flash NAND, ce qui entraine inévitablement une corruption des données lors du redémarrage. Ce point est essentiel pour CEPH, qui réalise toutes ses écritures en mode synchrone (flag O_SYNC) pour garantir la cohérence des données écrites (rappel : recherche de la fiabilité ultime). Sans PLP, donc avec un SSD grand public (y compris les modèles commercialement estampillés "Pro" de Samsung ), le SSD désactive son cache en écriture et il se passe alors 2 choses : Effondrement des performances : on parle potentiellement d'un rapport 100 à 1000 Usure prématurée : le wear-leveling étant désactivé par l'absence de cache en écriture, les cellules TLC ou QLC s'usent d'autant plus vite. Sur les forums, j'ai vu des gens dont les SSD grand publics utilisés avec CEPH sont morts en quelques semaines à quelques mois, 1 an tout au plus. Donc quand je vois des tutos sur des blogs ou chaines YouTube qui expliquent comment monter un cluster CEPH avec des SSD à pas cher, ça me fait doucement rigoler, ou ça m'attriste c'est selon, car ça démontre bien qu'au delà de la démonstration, ils n'ont pas dû l'utiliser bien longtemps leur cluster... A noter que même sans activité des VM, CEPH écrit en permanence des logs sur les SSD, ce qui les use même sans activité, simplement en restant allumés ! Donc chaque serveur disposera de 2 SSD : NMVe M.2 de 480 Go sur carte mère : boot Proxmox et Monitor CEPH NVMe U.3 de 1.9 To sur port Oculink PCIe x4 : disque OSD pour CEPH et DB/WAL En plus, le nœud 1 TrueNAS disposera de 3 autres SSD SATA grand public classiques de 4 To chacun : Pool local Proxmox pour les VM qui n'ont pas besoin de la haute dispo apportée par CEPH System Dataset pour TrueNAS : permet à TrueNAS d'écrire ses logs sur ce SSD et ainsi de permettre aux disques durs mécaniques de rester en veille prolongée, ce qui réduira significativement la consommation électrique de ce serveur (compter 5W par disque en rotation sans activité, multiplié par les nombre de disques, ça fait vite pas mal...) VM Synology : pour Surveillance Station. Alors certes un SSD pour de l'enregistrement vidéo c'est luxueux, mais j'ai réussi à en avoir un pour pas trop cher et ça consommera beaucoup moins qu'un disque dur dédié à cet usage la VM TrueNAS disposera d'une carte PCIe de type HBA (= Host Bus Adapter), c'est à dire sans fonctionnalités RAID intégrée, affectée en PCI Passtrough. L'objectif étant que TrueNAS, et plus particulièrement ZFS, puisse disposer d'un accès direct aux disques durs (informations SMART, etc), pour gérer le RAID logiciel avec un Pool en RAIDZ2, c'est à dire protégeant contre la perte de 2 disques. C'est important, car avec 1 seule protection, le risque est grand de perdre un second disque pendant la reconstruction, surtout avec des disques capacitifs de 24 To. Alimentation électrique Il est inutile d'avoir un cluster haute-dispo à 3 nœuds si une simple panne d'alimentation électrique vient tout casser. J'ai donc réfléchi à une solution pour apporter de la redondance électrique. Bien sûr, il est possible de trouver des alimentions ATX redondantes, mais ce n'est pas l'approche que j'ai retenu car : Couteux Choix limité de modèles Double alimentation dans le même format standard ATX, donc ventilateurs plus petits et donc bruit important Pas de solution existante pour mon boitier Mini-ITX déjà ultra compact Quand j'ai mis en place ma batterie de stockage solaire, j'avais anticipé la possibilité d'utiliser le réseau 48 V à courant continu, directement câblé sur la batterie elle-même. J'ai déjà convertisseur DC-DC 48V vers 12V pour un détecteur de fumée, je vais donc ajouter un autre convertisseur Victron 12V pour alimenter l'un des nœuds. Ce sera le nœud n°3, dans le boitier compact Mini-ITX. Ce serveur n'aura donc pas d'alimentation AC classique, mais un connecteur DC 12V. Je reviendrai en détail plus tard sur ce montage lors des discussions sur le choix des composants. L'autre intérêt de l'alimentation direct en courant continu, c'est le rendement élevé. En effet, on évite la double conversion DC-AC puis AC-DC, avec des pertes significatives à chaque étape. Les 2 boitiers rackables auront une alimentation ATX standard, haut-rendement, afin de limiter les pertes. Là encore, je détaillerai ultérieurement le choix du modèle. Chaque alimentation sera sur une source d'alimentation 230V AC différente. Le nœud n°1, le principal qui est dédié au NAS, sera derrière mon vaillant onduleur Eaton 5P qui protège déjà mon informatique à domicile. Bien sûr je ne mets pas 2 nœuds derrière le même onduleur Eaton, car une panne de celui-ci entrainerait la perte des 2 nœuds et donc du cluster entier. Donc le nœud n°2 sera branché directement sur le secteur, enfin plus précisément sur la sortie secourue de l'onduleur Victron (comme toute la maison), ce qui le protège donc contre une coupure de courant EDF. Ultérieurement, quand UniFi sortira sa gamme d'onduleurs "pro" (avec batterie Li-Ion), j'en prendrai un pour sécuriser encore plus ce serveur. De façon générale, on constate qu'en cas de coupure secteur EDF, l'ensemble des 3 nœuds de mon cluster (ainsi que les switchs, routeur, etc) sont tous protégés. Si la batterie est chargée et/ou qu'il y a suffisamment de soleil, je peux théoriquement tenir un temps infini. 1
Messages recommandés