total time * 1000 / per-request statistics (avg) => request / seconde ?Dans ton tableau, à quelle ligne correspond les Iops ?
[SONDAGE] ZFS / ZIL / Type SSD
[SONDAGE] ZFS / ZIL / Type SSD
[SONDAGE] ZFS / ZIL / Type SSD
je ne crois pas que sysbench puisse sortir les iops.
Bonnie ++ peut être, faudrait que je regarde
			
			
									
						
										
						Bonnie ++ peut être, faudrait que je regarde
[SONDAGE] ZFS / ZIL / Type SSD
Bonnie ça renvoie les iops c'est sûr.
			
			
									
						
										
						[SONDAGE] ZFS / ZIL / Type SSD
bon je vais voir pour faire joujou avec bonnie++ demain 
			
			
									
						
										
						[SONDAGE] ZFS / ZIL / Type SSD
Bon alors voila ce que ca donne:
Raid 0 4*146Go 10K:
			
			
									
						
										
						Raid 0 4*146Go 10K:
root@openstack:~# bonnie++ -d /mnt/tank1 -r 32165 -u root
Using uid:0, gid:0.
Writing a byte at a time...done
Writing intelligently...done
Rewriting...done
Reading a byte at a time...done
Reading intelligently...done
start 'em...done...done...done...done...done...
Create files in sequential order...done.
Stat files in sequential order...done.
Delete files in sequential order...done.
Create files in random order...done.
Stat files in random order...done.
Delete files in random order...done.
Version  1.97       ------Sequential Output------ --Sequential Input- --Random-
Concurrency   1     -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine        Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP  /sec %CP
openstack       63G   101  99 288160  60 49961  11   250  82 261287  19 343.1  26
Latency               109ms     206ms    4038ms    2108ms     208ms     600ms
Version  1.97       ------Sequential Create------ --------Random Create--------
openstack           -Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
              files  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP
                 16 15749  94 +++++ +++ 15251  97 14320  98 +++++ +++ 15448  99
Latency             26239us    1690us    1716us   51733us      15us     130us
1.97,1.97,openstack,1,1462892850,63G,,101,99,288160,60,49961,11,250,82,261287,19,343.1,26,16,,,,,15749,94,+++++,+++,15251,97,14320,98,+++++,+++,15448,99,109ms,206ms,4038ms,2108ms,208ms,600ms,26239us,1690us,1716us,51733us,15us,130us
Raid 0 4*74Go 15K:
root@openstack:~# bonnie++ -d /mnt/tank2 -r 32165 -u root
Using uid:0, gid:0.
Writing a byte at a time...done
Writing intelligently...done
Rewriting...done
Reading a byte at a time...done
Reading intelligently...done
start 'em...done...done...done...done...done...
Create files in sequential order...done.
Stat files in sequential order...done.
Delete files in sequential order...done.
Create files in random order...done.
Stat files in random order...done.
Delete files in random order...done.
Version  1.97       ------Sequential Output------ --Sequential Input- --Random-
Concurrency   1     -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine        Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP  /sec %CP
openstack       63G   100  99 379535  72 83280  19   305  97 420317  29 593.6  31
Latency               104ms     195ms     695ms     235ms     224ms     298ms
Version  1.97       ------Sequential Create------ --------Random Create--------
openstack           -Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
              files  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP
                 16 16956  98 +++++ +++ 15891  99 15340  98 +++++ +++ 17009  99
Latency             25199us    1688us    1759us   50605us      11us     133us
1.97,1.97,openstack,1,1462863572,63G,,100,99,379535,72,83280,19,305,97,420317,29,593.6,31,16,,,,,16956,98,+++++,+++,15891,99,15340,98,+++++,+++,17009,99,104ms,195ms,695ms,235ms,224ms,298ms,25199us,1688us,1759us,50605us,11us,133us[SONDAGE] ZFS / ZIL / Type SSD
Raidz 4*74Go 15K:
			
			
									
						
										
						root@openstack:~# bonnie++ -d /mnt/tank2 -r 32165 -u root
Using uid:0, gid:0.
Writing a byte at a time...done
Writing intelligently...done
Rewriting...done
Reading a byte at a time...done
Reading intelligently...done
start 'em...done...done...done...done...done...
Create files in sequential order...done.
Stat files in sequential order...done.
Delete files in sequential order...done.
Create files in random order...done.
Stat files in random order...done.
Delete files in random order...done.
Version  1.97       ------Sequential Output------ --Sequential Input- --Random-
Concurrency   1     -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine        Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP  /sec %CP
openstack       63G    94  99 277790  67 70010  17   278  88 274354  22 220.6  19
Latency               148ms   74531us     913ms     639ms     463ms     325ms
Version  1.97       ------Sequential Create------ --------Random Create--------
openstack           -Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
              files  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP
                 16  2365  23 +++++ +++  6578  43  5928  36 +++++ +++  4679  34
Latency             25557us    1698us    1757us   19004us      20us     247us
1.97,1.97,openstack,1,1462864205,63G,,94,99,277790,67,70010,17,278,88,274354,22,220.6,19,16,,,,,2365,23,+++++,+++,6578,43,5928,36,+++++,+++,4679,34,148ms,74531us,913ms,639ms,463ms,325ms,25557us,1698us,1757us,19004us,20us,247us
Raidz 4*146Go 10K:
root@openstack:~# bonnie++ -d /mnt/tank1 -r 32165 -u root
Using uid:0, gid:0.
Writing a byte at a time...done
Writing intelligently...done
Rewriting...done
Reading a byte at a time...done
Reading intelligently...done
start 'em...done...done...done...done...done...
Create files in sequential order...done.
Stat files in sequential order...done.
Delete files in sequential order...done.
Create files in random order...done.
Stat files in random order...done.
Delete files in random order...done.
Version  1.97       ------Sequential Output------ --Sequential Input- --Random-
Concurrency   1     -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine        Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP  /sec %CP
openstack       63G    95  99 215251  55 29246   7   273  86 227249  17 207.2  15
Latency             88171us   64476us    6067ms     835ms    1036ms     527ms
Version  1.97       ------Sequential Create------ --------Random Create--------
openstack           -Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
              files  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP
                 16 15602  91 +++++ +++ 17233  98 14949  98 +++++ +++ 17269  99
Latency             25213us    1529us    1603us   51532us      51us     132us
1.97,1.97,openstack,1,1462864313,63G,,95,99,215251,55,29246,7,273,86,227249,17,207.2,15,16,,,,,15602,91,+++++,+++,17233,98,14949,98,+++++,+++,17269,99,88171us,64476us,6067ms,835ms,1036ms,527ms,25213us,1529us,1603us,51532us,51us,132us[SONDAGE] ZFS / ZIL / Type SSD
explication des résultats:
https://www.jamescoyle.net/how-to/599-b ... and-bonnie
voir à la fin de l'article
			
			
									
						
										
						https://www.jamescoyle.net/how-to/599-b ... and-bonnie
voir à la fin de l'article
[SONDAGE] ZFS / ZIL / Type SSD
Si je récap (d'après le lien juste au dessus):
IOps:
Raid 0 146: 343
Raid 0 74: 593
RaidZ 146: 220
RaidZ 74: 207
Bizarre la diff quand même en raid 0 mais je pense que j'ai un disque de 146Go qui fatigue.
			
			
									
						
										
						IOps:
Raid 0 146: 343
Raid 0 74: 593
RaidZ 146: 220
RaidZ 74: 207
Bizarre la diff quand même en raid 0 mais je pense que j'ai un disque de 146Go qui fatigue.
[SONDAGE] ZFS / ZIL / Type SSD
faudrait un bench des disques seuls pour comparer efficacement non ?
			
			
									
						
										
						- augur1
 - Messages : 13167
 - Inscription : ven. 12 janv. 2018 17:44
 - Localisation : où tout est neuf et tout est sauvage
 - Contact :
 
[SONDAGE] ZFS / ZIL / Type SSD
Ou un pb de ashift ? 
			
			
									
						
										
						[SONDAGE] ZFS / ZIL / Type SSD
Z: c'est prévus 
 j'ai juste pas d'accès ssh au taff...
augur: je n'ai pas touché à ce paramètre. sur xtba j'ai lu vos échanges la dessus mais je me suis pas penché plus que ca sur le sujet
			
			
									
						
										
						augur: je n'ai pas touché à ce paramètre. sur xtba j'ai lu vos échanges la dessus mais je me suis pas penché plus que ca sur le sujet
[SONDAGE] ZFS / ZIL / Type SSD
un disque de 146Go:
			
			
									
						
										
						root@openstack:~# bonnie++ -d /mnt/tank1 -r 32165 -u root
Using uid:0, gid:0.
Writing a byte at a time...done
Writing intelligently...done
Rewriting...
done
Reading a byte at a time...done
Reading intelligently...done
start 'em...done...done...done...done...done...
Create files in sequential order...done.
Stat files in sequential order...done.
Delete files in sequential order...done.
Create files in random order...done.
Stat files in random order...done.
Delete files in random order...done.
Version  1.97       ------Sequential Output------ --Sequential Input- --Random-
Concurrency   1     -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine        Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP  /sec %CP
openstack       63G   643  98 55907   6 27339   3  1733  59 60790   3  86.7   4
Latency             13533us    1849ms    4951ms     411ms    3021ms     721ms
Version  1.97       ------Sequential Create------ --------Random Create--------
openstack           -Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
              files  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP
                 16 10093  15 +++++ +++ +++++ +++ 32456  49 +++++ +++ +++++ +++
Latency               458us     546us    1109us     789us      14us    1037us
un disque de 74Go:
root@openstack:~# bonnie++ -d /mnt/tank1 -r 32165 -u root
Using uid:0, gid:0.
Writing a byte at a time...done
Writing intelligently...done
Rewriting...done
Reading a byte at a time...done
Reading intelligently...done
start 'em...done...done...done...done...done...
Create files in sequential order...done.
Stat files in sequential order...done.
Delete files in sequential order...done.
Create files in random order...done.
Stat files in random order...done.
Delete files in random order...done.
Version  1.97       ------Sequential Output------ --Sequential Input- --Random-
Concurrency   1     -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine        Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP  /sec %CP
openstack       63G   370  58 54232   6 24975   3  1055  37 69858   4 281.2  17
Latency              1068ms    3703ms    5223ms     435ms     639ms     812ms
Version  1.97       ------Sequential Create------ --------Random Create--------
openstack           -Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
              files  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP
                 16 22574  33 +++++ +++ +++++ +++ +++++ +++ +++++ +++ +++++ +++
Latency               771us     543us    1557us     516us      65us    1030us[SONDAGE] ZFS / ZIL / Type SSD
86 IOPS sur un 10k ça fait peu... et 281 IOPS sur un 15k ça fait un peu beaucoup 
			
			
									
						
										
						[SONDAGE] ZFS / ZIL / Type SSD
ouais c'est ce que je me suis dis aussi 
			
			
									
						
										
						- augur1
 - Messages : 13167
 - Inscription : ven. 12 janv. 2018 17:44
 - Localisation : où tout est neuf et tout est sauvage
 - Contact :
 
[SONDAGE] ZFS / ZIL / Type SSD
What does it mean that ZFS is included in Debian?
-> https://bits.debian.org/2016/05/what-do ... debian.org
			
			
									
						
										
						-> https://bits.debian.org/2016/05/what-do ... debian.org
[SONDAGE] ZFS / ZIL / Type SSD
Deux petites questions:
- le ashift est à surveiller que sur du raidz1/2? pas en mirror?
- fragmentation 12% moyen de réduire ca? un coup de scrub?
merci
			
			
									
						
										
						- le ashift est à surveiller que sur du raidz1/2? pas en mirror?
- fragmentation 12% moyen de réduire ca? un coup de scrub?
merci
[SONDAGE] ZFS / ZIL / Type SSD
nop scrub ne fait rien 
et à ma connaissance (que j'ai pas update récemment) pas de moyen hors
backup destroy recreate
			
			
									
						
										
						et à ma connaissance (que j'ai pas update récemment) pas de moyen hors
backup destroy recreate
[SONDAGE] ZFS / ZIL / Type SSD
okay c'est bien ce qui me semblait.
mon constat: j'ai eu beau augmenter le arc, les IOWait explosent, c'est juste que les disques sont à fond et du coup ca ralentit le cpu.
Donc passage avec un L2ARC/ZLOG sur ssd comme testé avant histoire de décharger un peu les disques.
			
			
									
						
										
						mon constat: j'ai eu beau augmenter le arc, les IOWait explosent, c'est juste que les disques sont à fond et du coup ca ralentit le cpu.
Donc passage avec un L2ARC/ZLOG sur ssd comme testé avant histoire de décharger un peu les disques.
- augur1
 - Messages : 13167
 - Inscription : ven. 12 janv. 2018 17:44
 - Localisation : où tout est neuf et tout est sauvage
 - Contact :
 
[SONDAGE] ZFS / ZIL / Type SSD
C'est beau : http://www.supermicro.com/products/moth ... -7TP4F.cfm
... 520 € !
			
			
									
						
										
						... 520 € !
- augur1
 - Messages : 13167
 - Inscription : ven. 12 janv. 2018 17:44
 - Localisation : où tout est neuf et tout est sauvage
 - Contact :
 
[SONDAGE] ZFS / ZIL / Type SSD
Microserver Proliant NL40, 5x 2 To WD Green, IBM Br10i flashé LSI IT
[*]mars 2012 : OpenIndiana 151 + Napp-It
[*]novembre 2014 : shutdown
[*]septembre 2016 : start / Xubuntu 16.04.1 + Napp-It
=> import de la Pool
..... & rock'n rocks ^^
			
			
									
						
										
						[*]mars 2012 : OpenIndiana 151 + Napp-It
[*]novembre 2014 : shutdown
[*]septembre 2016 : start / Xubuntu 16.04.1 + Napp-It
=> import de la Pool
..... & rock'n rocks ^^
[SONDAGE] ZFS / ZIL / Type SSD
https://dataswamp.org/~solene/article-mbuffer.html
je sais pas si c'est clair sur mon blog, si vous voulez des explications sur mbuffer hésitez pas, c'est cool comme programme
			
			
									
						
										
						je sais pas si c'est clair sur mon blog, si vous voulez des explications sur mbuffer hésitez pas, c'est cool comme programme
[SONDAGE] ZFS / ZIL / Type SSD
c'est surtout utile si t'as de la ram et que le programme qui absorbe les données est plus lent que celui qui envoie les données.
Dans certain cas, le programme qui envoie peut se retrouver bloqué car le programme qui consomme est lent, mais dès que celui qui consomme devient de nouveau disponible celui qui envoie peut se retrouver dans une phase de lenteur. Avec mbuffer, disons que l'émetteur a toujours un coup d'avance sur les données à fournir au consommateur. Typiquement, dans mon exemple de base de données, pendant que la nouvelle base ajoute les données le dump d'origine s'arrête, et dès qu'il peut transmettre des données il perd du temps car il doit se préparer à dumper la prochaine table et ça prend du temps, pendant ce temps la nouvelle base ne fait plus rien. Avec mbuffer, il y a toujours des données en attente dedans et ça évite des blocages du dump.
			
			
									
						
										
						Dans certain cas, le programme qui envoie peut se retrouver bloqué car le programme qui consomme est lent, mais dès que celui qui consomme devient de nouveau disponible celui qui envoie peut se retrouver dans une phase de lenteur. Avec mbuffer, disons que l'émetteur a toujours un coup d'avance sur les données à fournir au consommateur. Typiquement, dans mon exemple de base de données, pendant que la nouvelle base ajoute les données le dump d'origine s'arrête, et dès qu'il peut transmettre des données il perd du temps car il doit se préparer à dumper la prochaine table et ça prend du temps, pendant ce temps la nouvelle base ne fait plus rien. Avec mbuffer, il y a toujours des données en attente dedans et ça évite des blocages du dump.
