pitin mais pong alors
trop con ce truc il coupe sans prévenir quand il a chaud là où un OS Crosoft ne fait rien ?!
ριиg σr ρσиg ? Côté obscur
Publié : dim. 9 août 2015 00:36
par augur1
pitin mais pong alors
trop con ce truc il coupe sans prévenir quand il a chaud là où un OS Crosoft ne fait rien ?!
Amd, t'en a pour ton argent !
Ping
ριиg σr ρσиg ? Côté obscur
Publié : dim. 9 août 2015 00:52
par BonOeil
Il y a mieux que Napp-It maintenant ? ZFSGuru ?
Pong
ριиg σr ρσиg ? Côté obscur
Publié : dim. 9 août 2015 01:50
par augur1
Non mais exit Openindiana : c'est sur OmniOs à present.
En plus, Nappit peut fct sur Ubuntu / debian avec ZoL !!
Gea propose toutes les fct entreprise pour du home à 100€ avec 1 an de support dédié.
Ping
ριиg σr ρσиg ? Côté obscur
Publié : dim. 9 août 2015 01:51
par X-System
ben ping alors, quand le pc est (trop) chaud ça shutdown direct !
pitin mais pong alors
trop con ce truc il coupe sans prévenir quand il a chaud là où un OS Crosoft ne fait rien ?!
Amd, t'en a pour ton argent !
Ping
Ca me rappelle les tests par Tom's Hardware
pong
ριиg σr ρσиg ? Côté obscur
Publié : dim. 9 août 2015 02:13
par BonOeil
Non mais exit Openindiana : c'est sur OmniOs à present.
En plus, Nappit peut fct sur Ubuntu / debian avec ZoL !!
Gea propose toutes les fct entreprise pour du home à 100€ avec 1 an de support dédié.
Ping
Tu tournes avec quoi Pong
ριиg σr ρσиg ? Côté obscur
Publié : dim. 9 août 2015 08:18
par poulpito
moi toujours ZoL + debian toujours aussi content
ping
ριиg σr ρσиg ? Côté obscur
Publié : dim. 9 août 2015 10:35
par augur1
Là j'ai un filer en OmniOs + nappit qui tourne depuis juillet 2024 en 3x vdev raidZ de 3x 2 To WD SE + 2x vdev raidZ de 4x 1 To WD Black.
Il a un bug à cause du mauvais firmware (p20) d'une des cartes LSI + j'ai touché aux dns et depuis le reseau est pénible + la carte 10GbE est en direct attach avec une fibre om3 de 10m (il ne faut pas dépasser les 7m en direct attach
Le Microserve HP Proliant de matuzalem est lui en Openindiana + nappit pour 1x vdev de 5x 2 To WD Green.
A partir du 17 aout je monte un 8x vdev 2x 2 To WD SE en testant ubuntu 14 LTS ou debian 7, avec Nappit... et si non satisfaisant, je pars sur OminOs + nappit.
Comme le L2aRC / cache SSD ne sert à rien en samba/cifs, j'aimerais qu'il ait taquet de ram...
je vois rien de spécial sur le lien que tu as donné augur1, ou alors je suis habituée à discuter avec des gens comme ça . Sur les mailing list de systèmes BSD on trouve des "cas", genre un mec qui demandait comment faire pour bloquer yahoo,gmail,hotmail etc.. de son serveur mail pour éviter que la NSA lise les courriers de ses utilisateurs (bon il pourrait plus communiquer avec personne mais ça semble pas un problème)
ping
ριиg σr ρσиg ? Côté obscur
Publié : dim. 9 août 2015 11:07
par augur1
Je trouve très bizarre le temps de reconstruction !!
Pong
ριиg σr ρσиg ? Côté obscur
Publié : dim. 9 août 2015 11:11
par Zedoune
Je trouve très bizarre le temps de reconstruction !!
Pong
si les disques ne font pas grand chose, le disque de remplacement va pouvoir être complété par écriture séquentielle sans interruption, à ~~ 150 Mo/s ça peut remplir assez vite
moi je compte plutot 7 - 10 jours pour une reconstruction... pour ça que je fais qu du raidz2 si c'est vraiment important. En cas de panne, le temps de commander le disque, de me déplacer pour le changer et que ce soit reconstruit, faudrait pas qu'un autre tombe en panne...
ping
ριиg σr ρσиg ? Côté obscur
Publié : dim. 9 août 2015 11:14
par augur1
!!?!! Oh ?!!
... même en scrubant la pool toutes les semaines ça prendrait autant de temps ?!!!
Il me semblait que l'un des avantage du raidZ / raidZ2 par rapport au raid 5/6, était justement la creation instantanée de la pool + en cas de perte d'un disque, la reconstruction etait immediate, sans attendre de resilver...
Pong
ριиg σr ρσиg ? Côté obscur
Publié : dim. 9 août 2015 11:46
par Alucardfh
7-10 jours pour des disques de quelle taille ?
Au taf sur des baie IBM DS3700 un raid6 de 24 disques 3TO, si le filesystem glande sa prend 24H pour reconstruire un disque, on monte a 36-48H quand le filesystem est au taquet.
Après pour le truc avec le meilleur temps de reconstruction, on a un système avec ~300 disques de 4To dans un softraid IBM proprio.
Typiquement c'est un mix entre de la parité et de la duplication de data (Avantage des deux : gain de place de la parité mais flexibilité de la duplication).
Du coup tu peux perdre un nombre configurable de disques avant d'avoir besoin de reconstruire (par défaut 3).
Quand tu perd un disque t'as pas de temps de reconstruction si t'es en dessous de trois disques perdu.
En fait il va assurer la duplication avec les disques qu'il lui reste dès que ton disque rend l’âme, ce qui fait que quand tu remplace le disque HS il va commencer a l'utiliser directement, sans avoir a reconstruire quoi que ce soit dessus.
Et dans les tests qu'on a fait avec le filesystem plein à 60%, si tu perds trois disque t'en a pour 4H avant que le système considère qu'il peut a nouveau perdre un disque.
Après sur mon pool 4x2TO raidz (ZOL/Ubuntu 14.04)... j'ai pas encore perdu de disque donc je peux pas dire, mais je m'attends un une reconstruct bien longue.
Ping
ριиg σr ρσиg ? Côté obscur
Publié : dim. 9 août 2015 12:13
par augur1
Il me semblait qu'en scrubant toutes les semaines, la "reconstruction" en zfs etait ultra rapide, quasi instantanée...
Poulpi, en remplaçant ton 1 to, tu nous dit ?
Pong
ριиg σr ρσиg ? Côté obscur
Publié : dim. 9 août 2015 12:17
par kalistyan
Ping de la Rochelle.
ριиg σr ρσиg ? Côté obscur
Publié : dim. 9 août 2015 12:42
par poulpito
pong alors en fait dans ton log c'est correct
une reconstruction raid5-6 mdadm et autre hardware copie bit par bit
le ZFS est long au début sur les data et boost à la fin sur le blank
ainsi en quoi 2 heures j'ai resilver en entier mon array de 4*1To (plein 80%)
sur mon array 8*2To (4*2To raidz + 4*2Toraidz ) le volume ou il manquait un disque est revenu en 5h gros maxi de ce que je me souviens
(plein 60%)
pour le scrub aucune idée je ne pense pas que ca aide
en plus ca aide pas la durée de vie (lecture complète) donc à faire au plus souvent 1* par mois
ριиg σr ρσиg ? Côté obscur
Publié : dim. 9 août 2015 12:59
par poulpito
ping 162Go/heure (45Mo/sec) sur un LTO3 c'est bien ? me rend pas compte je fais le test avec un vieux DL380G4 que j'ai avec la carte scsi interne et un bouchon trouvé je sais plus ou
j'ia même pas vérifié la vitesse scsi (on le fait ou sous win ?)
je test Iperius Backup ! très bon de ce que j'ai vu pour le moment
ριиg σr ρσиg ? Côté obscur
Publié : dim. 9 août 2015 14:05
par micha30000
Pong le mois dernier on a dépassé le Po sur la sauvegarde
(dédupliqué )
ριиg σr ρσиg ? Côté obscur
Publié : dim. 9 août 2015 14:13
par poulpito
ping moi j'en suis à faire de la récup :'( pour notre infra
j'ai envoyé un mail aux resp tech pour leur demander si ils ont pas du matos en don :'(
le rachat a pas fait du bien
ριиg σr ρσиg ? Côté obscur
Publié : dim. 9 août 2015 14:20
par poulpito
pong
Démarrage de la sauvegarde sur bande - HP Ultrium 3-SCSI SCSI Sequential Device (TAPE0)
Type de sauvegarde: Complète
Temps passé: 1 heure, 53 minutes, 36 secondes
Taille des données copiées: 294,3 GB
Vérification de la sauvegarde complétée avec succès
Sauvegarde sur bande terminée avec succès
8761 Fichiers traités - 0 erreurs
ριиg σr ρσиg ? Côté obscur
Publié : dim. 9 août 2015 14:29
par BonOeil
Là j'ai un filer en OmniOs + nappit qui tourne depuis juillet 2024 en 3x vdev raidZ de 3x 2 To WD SE + 2x vdev raidZ de 4x 1 To WD Black.
Il a un bug à cause du mauvais firmware (p20) d'une des cartes LSI + j'ai touché aux dns et depuis le reseau est pénible + la carte 10GbE est en direct attach avec une fibre om3 de 10m (il ne faut pas dépasser les 7m en direct attach
Le Microserve HP Proliant de matuzalem est lui en Openindiana + nappit pour 1x vdev de 5x 2 To WD Green.
A partir du 17 aout je monte un 8x vdev 2x 2 To WD SE en testant ubuntu 14 LTS ou debian 7, avec Nappit... et si non satisfaisant, je pars sur OminOs + nappit.
Comme le L2aRC / cache SSD ne sert à rien en samba/cifs, j'aimerais qu'il ait taquet de ram...
Je vais donc rester sur Nappit sur le filer que j'ai, je vais le remettre en prod la semaine prochaine j'espère que tout ira bien. Ca fait 2 ans qu'il est dans un carton :/
Et je vais me remonter un autre plus puissant avec beaucoup de ram, faut que je regarde quoi car ça fait un bail que je m'y suis plus interressé
Ping
ριиg σr ρσиg ? Côté obscur
Publié : dim. 9 août 2015 15:34
par augur1
Pour un max de ram apatrop cher et perf : lga1366 en chipset 1x 5520 (permet l'utilisation de tous les pcie meme avec 1 seul proc) avec ddr3 en module de 4 ou 8 go ecc reg.
Là je pars sur une base hp ml150g6 + 1x 5570 + 24 à 48 go de ram d'un côté et je regarde pour une autre conf en 64 go mini, avec les 16x 2 To qui seront en mirored 16 to utile) et carte 10GbE mais me faut un switch avec sfp+ qui gère le flow control(802.3x) pour du des flux vidéo....
Pong
ριиg σr ρσиg ? Côté obscur
Publié : dim. 9 août 2015 16:38
par levend
Ping
Vous avez une solution pour un serveur d'impression ?
ριиg σr ρσиg ? Côté obscur
Publié : dim. 9 août 2015 16:57
par Alucardfh
Pour un max de ram apatrop cher et perf : lga1366 en chipset 1x 5520 (permet l'utilisation de tous les pcie meme avec 1 seul proc) avec ddr3 en module de 4 ou 8 go ecc reg.
Là je pars sur une base hp ml150g6 + 1x 5570 + 24 à 48 go de ram d'un côté et je regarde pour une autre conf en 64 go mini, avec les 16x 2 To qui seront en mirored 16 to utile) et carte 10GbE mais me faut un switch avec sfp+ qui gère le flow control(802.3x) pour du des flux vidéo....
Pong
Pour du flux vidéo ou tout ce qui est stream de data, t'es mieux avec un switch qui a de gros buffer par port que juste le flow control.
Mais bon ... gros buffer == gros budget.
pong
ριиg σr ρσиg ? Côté obscur
Publié : dim. 9 août 2015 18:51
par augur1
Pour du flux vidéo [...], t'es mieux avec un switch qui a de gros buffer par port que juste le flow control.
Mais bon ... gros buffer == gros budget.
pong
Pas du tout !
BIG recommandation pour des serveurs de production vidéo, partagés en CIFS/Samba/AFP via Gigabit :
Why do I get dropped frames when playing back long sequences?
While this could be caused by storage that cannot service the demands of your editors, it can also be symptomatic of the client’s network interface becoming overrun.
The specific topology of your network will influence how this problem manifests itself (10GBE tends to cause more issues), but it can often be solved by implementing “flow control”.
In simple terms flow control allows each client workstations to send a pause frame back to the server.
This is particularly important when playing back long sequences.
In order for this to work you will need a switch that supports asymmetric flow control.
Unfortunately there isn’t a distinct list of brands/models that do this well, however most modern units will do you proud.
In addition, you will need to enable TX/RX flow control on the server using ethtool -a ethX, as well as at every client workstation.
If you are using a bonded network interface you must enable flow control for each adaptor, before creating the bond.
+ rester en MTU 1500 gros max sinon maxi latence !!