Sauvegarde : cluster ZFS ?

Avatar de l’utilisateur
augur1
Messages : 13167
Inscription : ven. 12 janv. 2018 17:44
Localisation : où tout est neuf et tout est sauvage
Contact :

Sauvegarde : cluster ZFS ?

Message par augur1 »

Ah tiens poulpi : tu as 3 pool
-> storage avec 2 vDev Raidz1 de 4 disques
-> storage2 avec 2 vDev Raidz1 de 4 disques
->, storage3) avec 1 vDev Raidz1 de 4 disques
... sur une même install.

Quel disque as tu sur chacun ?
Avatar de l’utilisateur
poulpito
Messages : 12402
Inscription : ven. 12 janv. 2018 17:44
Localisation : Grenoble

Sauvegarde : cluster ZFS ?

Message par poulpito »

4*2To+4*2To
4*2To+4*1To
4*1To
de mémoire faudrait que je ressorte les types des disques pour le reste des infos
Avatar de l’utilisateur
augur1
Messages : 13167
Inscription : ven. 12 janv. 2018 17:44
Localisation : où tout est neuf et tout est sauvage
Contact :

Sauvegarde : cluster ZFS ?

Message par augur1 »

Donc, exploitable :
- 12 To
- 9 ou 6 To ?
- 3 To
Avatar de l’utilisateur
poulpito
Messages : 12402
Inscription : ven. 12 janv. 2018 17:44
Localisation : Grenoble

Sauvegarde : cluster ZFS ?

Message par poulpito »

12-9-3
Avatar de l’utilisateur
augur1
Messages : 13167
Inscription : ven. 12 janv. 2018 17:44
Localisation : où tout est neuf et tout est sauvage
Contact :

Sauvegarde : cluster ZFS ?

Message par augur1 »

Ok, merci de m'avoir ôté d'un doute.

Dans un même rack, je compte mettre une pool SAS et une autre SATA sur 2 contrôleurs différents...
gizmo78
Messages : 20534
Inscription : ven. 12 janv. 2018 17:44

Sauvegarde : cluster ZFS ?

Message par gizmo78 »

poulpito: ton installe, augur dit 2 vdev Raidz1, c'est deux raid5 indépendant nan? pk 2 vdev?
Avatar de l’utilisateur
augur1
Messages : 13167
Inscription : ven. 12 janv. 2018 17:44
Localisation : où tout est neuf et tout est sauvage
Contact :

Sauvegarde : cluster ZFS ?

Message par augur1 »

2x vdev RaidZ = Raid50 en quelque sorte ;)
Avatar de l’utilisateur
poulpito
Messages : 12402
Inscription : ven. 12 janv. 2018 17:44
Localisation : Grenoble

Sauvegarde : cluster ZFS ?

Message par poulpito »

ouaip c'est ca

~# zpool status
pool: storage
state: ONLINE
scan: scrub repaired 0 in 5h45m with 0 errors on Wed Apr 30 17:55:47 2014
config:

NAME STATE READ WRITE CKSUM
storage ONLINE 0 0 0
raidz1-0 ONLINE 0 0 0
scsi-350024e92062e76d8 ONLINE 0 0 0
scsi-350024e92062e755a ONLINE 0 0 0
scsi-350024e92062e7341 ONLINE 0 0 0
scsi-350024e92062e7531 ONLINE 0 0 0
raidz1-1 ONLINE 0 0 0
scsi-350024e92062e74b4 ONLINE 0 0 0
scsi-350024e92062e7569 ONLINE 0 0 0
scsi-350024e92062e76b0 ONLINE 0 0 0
scsi-350024e92062e766e ONLINE 0 0 0

errors: No known data errors

pool: storage2
state: ONLINE
scan: scrub repaired 0 in 5h54m with 0 errors on Thu May 1 00:37:24 2014
config:

NAME STATE READ WRITE CKSUM
storage2 ONLINE 0 0 0
raidz1-0 ONLINE 0 0 0
scsi-350024e9003d30d0b ONLINE 0 0 0
scsi-350024e9003d30d15 ONLINE 0 0 0
scsi-350024e9003d30caa ONLINE 0 0 0
scsi-350024e9003d30d0e ONLINE 0 0 0
raidz1-1 ONLINE 0 0 0
scsi-350024e920064e5ab ONLINE 0 0 0
scsi-350024e920064e5ad ONLINE 0 0 0
scsi-350024e920064e5ac ONLINE 0 0 0
scsi-350024e920064e5c1 ONLINE 0 0 0

errors: No known data errors

pool: storage3
state: ONLINE
scan: scrub repaired 0 in 3h18m with 0 errors on Thu May 1 21:21:01 2014
config:

NAME STATE READ WRITE CKSUM
storage3 ONLINE 0 0 0
raidz1-0 ONLINE 0 0 0
scsi-350000f0008066966 ONLINE 0 0 0
scsi-350000f0008066995 ONLINE 0 0 0
scsi-350000f0000bcba29 ONLINE 0 0 0
scsi-350000f0008066916 ONLINE 0 0 0

le pourquoi : ca me permet d'étendre / resizer etc par groupe de 4 disques :)
et en plus ca correspond à une ligne du norco par vdev :p
gizmo78
Messages : 20534
Inscription : ven. 12 janv. 2018 17:44

Sauvegarde : cluster ZFS ?

Message par gizmo78 »

d'accord!! donc c'est un raid 0 de plusieurs raid 5 quoi
Répondre