PROJET: boot on lan sur DDRAM vive
PROJET: boot on lan sur DDRAM vive
je pense aussi à un bridage au niveau du bus
regarde si tu as pas des auto diag interne
sur les cartes dual port on peut boucler les deux avec le cable et lancer des diags
tu as quoi comme ref de cartes déjà ?
regarde si tu as pas des auto diag interne
sur les cartes dual port on peut boucler les deux avec le cable et lancer des diags
tu as quoi comme ref de cartes déjà ?
PROJET: boot on lan sur DDRAM vive
Ca serai pas mal en effet. mais j ai des MHQH19B-XTR(sur les cartes dual port on peut boucler les deux avec le cable et lancer des diags)
donc mono 40Gb.
Il n'y a pas non plus dans les instruction PDF, de protocole de test/bench.
J'ai creuser un peut pour la valeur du MTU il suffisait enfaite de donner une valeur précise de 4092
je vais tenter avec des valeur plus haute.
voila les perf que ca me donne en plus avec MTU a 4092:

On fait des test avec Iperf la

- Larifounette
- Messages : 7803
- Inscription : ven. 12 janv. 2018 17:44
- Localisation : Maine et Loire
PROJET: boot on lan sur DDRAM vive
Bon, dodo time ...
PROJET: boot on lan sur DDRAM vive
passe directe @9K la MTUCa serai pas mal en effet. mais j ai des MHQH19B-XTR(sur les cartes dual port on peut boucler les deux avec le cable et lancer des diags)
donc mono 40Gb.
Il n'y a pas non plus dans les instruction PDF, de protocole de test/bench.
J'ai creuser un peut pour la valeur du MTU il suffisait enfaite de donner une valeur précise de 4092
je vais tenter avec des valeur plus haute.
voila les perf que ca me donne en plus avec MTU a 4092:
http://img11.hostingpics.net/pics/42945 ... 024221.png
On fait des test avec Iperf la


PROJET: boot on lan sur DDRAM vive
MTU max setable a 4096. mais plus de perf a 4092.
Bon on a fait un max d'opti registre ... et ca permet de grappiller un peut de débit.
Mais le problème de base ne viens pas de la.
Bon prochain test ca sera en BoIB avec target ISCSI.
Bon on a fait un max d'opti registre ... et ca permet de grappiller un peut de débit.
Mais le problème de base ne viens pas de la.
Bon prochain test ca sera en BoIB avec target ISCSI.
PROJET: boot on lan sur DDRAM vive
Nos faisons des test avec Jperf pour évaluer les meilleurs paramètres de:
dufer length ?
TCP win size ?
max segement size ?
Pour ensuite les fixer dans le registre win.

avec ces valeur la on arrive a un débit cumuler des 2 trame de 1GB/s réel, se qui nous rapproche de la limitation des 1.3GB/s du PCIE 8X 1.0 ; mais nous somme bien en 2.0 donc ....
C'est débit sont atteint dans les 2 sens.
un mec fait avec le même soft:
dufer length ?
TCP win size ?
max segement size ?
Pour ensuite les fixer dans le registre win.

avec ces valeur la on arrive a un débit cumuler des 2 trame de 1GB/s réel, se qui nous rapproche de la limitation des 1.3GB/s du PCIE 8X 1.0 ; mais nous somme bien en 2.0 donc ....
C'est débit sont atteint dans les 2 sens.
un mec fait avec le même soft:
http://lists.openfabrics.org/pipermail/ ... 56270.html> tamara iperf-2.0.4/src> ./iperf -c 192.168.2.2 -l 3M
> ------------------------------------------------------------
> Client connecting to 192.168.2.2, TCP port 5001
> TCP window size: 515 KByte (default)
> ------------------------------------------------------------
> [ 3] local 192.168.2.1 port 47730 connected with 192.168.2.2 port 5001
> [ ID] Interval Transfer Bandwidth
> [ 3] 0.0-10.0 sec 11.6 GBytes 10.0 Gbits/sec
PROJET: boot on lan sur DDRAM vive
bon c'est vrais que la ont est a un max de 8GB/s.
donc limitation des NF200 ?

cela n'explique pas comment j'arrive a faire du 2.3GB/s réel en vidage de cach areca 1880IX
et 1.3GB/s réel avec l'areca 1231ML.
[#ff0e00]Pour le fun
[/#ff0e00]

Donc on dépasse les 8GB/s
on a transféré 60G en 1 min
donc limitation des NF200 ?

cela n'explique pas comment j'arrive a faire du 2.3GB/s réel en vidage de cach areca 1880IX
et 1.3GB/s réel avec l'areca 1231ML.
[#ff0e00]Pour le fun


Donc on dépasse les 8GB/s
on a transféré 60G en 1 min

- Larifounette
- Messages : 7803
- Inscription : ven. 12 janv. 2018 17:44
- Localisation : Maine et Loire
PROJET: boot on lan sur DDRAM vive
NF200 c'est pour les looseurs !!!
Bon, vais pouvoir me coucher de bonheure ce soir ...
Bon, vais pouvoir me coucher de bonheure ce soir ...
- augur1
- Messages : 13167
- Inscription : ven. 12 janv. 2018 17:44
- Localisation : où tout est neuf et tout est sauvage
- Contact :
PROJET: boot on lan sur DDRAM vive
IB Ethernet ? ... ya pas un QoS qui traine quelque part ??
++
++
PROJET: boot on lan sur DDRAM vive
Donc on dépasse les 8GB/s on a transféré 60G en 1 min


PROJET: boot on lan sur DDRAM vive
ouai effectivement augur ...
dans les prop windows de l'adapter y'a pas mal de trucs à virer
dans les prop windows de l'adapter y'a pas mal de trucs à virer
- augur1
- Messages : 13167
- Inscription : ven. 12 janv. 2018 17:44
- Localisation : où tout est neuf et tout est sauvage
- Contact :
PROJET: boot on lan sur DDRAM vive
genre style : 20% alloué à QoS
=> http://www.theeldergeek.com/qos_bandwit ... etting.htm
+ http://www.pctools.com/guides/registry/detail/1162/
[quotemsg]Increase bandwidth by tweaking QoS
The following tweak applies only to Windows XP Professional edition (and other Windows versions that may have QoS Policy installed).
The default system behavior is that all 100% bandwidth is available, however, if there is a running application that indicates to the OS it needs to send high priority/real time data, then as long as it has the socket open, Windows XP will restrict \\"best effort\\" traffic to 80% of the bandwidth so that high priority traffic can be accommodated. Basically, applications can make this request to the operating system for QoS support using the QoS application programming interfaces (APIs) in Windows and this only applies if a specific app is requesting QoS.
If you'd like to change how much bandwidth is reserved for QoS (the default is 20% of the total bandwidth), do the following:
1. Make sure you're logged in as \\"Administrator\\" (not just any account with admin privileges).
2. Navigate to START>Run and type: gpedit.msc
3. Navigate to Local Computer Policy > Administrative Templates > Network > QOS Packet Scheduler
4. In the right window, double-click the limit reservable bandwidth setting
5. On the setting tab, check the enabled setting.
6. Where it says \\"Bandwidth limit %\\", change it to read 0 (or whatever percentage you want to reserve for high priority QoS data)
7. Click OK, close gpedit.msc
Under START > My Computer > My Network Connections > View Network Connections, right-click on your connection and under Properties (where it lists your protocols), make sure QOS Packet Scheduler is enabled.
Alternate Method (Windows Registry)
Instead of editing the group policy, one can edit the Windows Registry directly:
[#ff0000]HKEY_LOCAL_MACHINE\SOFTWARE\Policies\Microsoft\Windows\Psched
NonBestEffortLimit=0[/#ff0000] (DWORD, not present in the registry by default. Recommended: 0 , possible values between 0 and 100) - indicates the percentage value of reserved bandwidth for QoS applications. Set to 0 to disable.
Notes: This tweak applies only to Windows versions that have Qos Packet Scheduler enabled.
You need to reboot for changes to take effect.
The Windows Vista registry location is the same as Windows XP
To read more about QoS and ToS/Diffserv, check the TCP Optimizer documentation, or refer to Technet/MSDN.
References:
Technet: QoS Tools and Settings
[/quote]
=> http://www.theeldergeek.com/qos_bandwit ... etting.htm
+ http://www.pctools.com/guides/registry/detail/1162/
[quotemsg]Increase bandwidth by tweaking QoS
The following tweak applies only to Windows XP Professional edition (and other Windows versions that may have QoS Policy installed).
The default system behavior is that all 100% bandwidth is available, however, if there is a running application that indicates to the OS it needs to send high priority/real time data, then as long as it has the socket open, Windows XP will restrict \\"best effort\\" traffic to 80% of the bandwidth so that high priority traffic can be accommodated. Basically, applications can make this request to the operating system for QoS support using the QoS application programming interfaces (APIs) in Windows and this only applies if a specific app is requesting QoS.
If you'd like to change how much bandwidth is reserved for QoS (the default is 20% of the total bandwidth), do the following:
1. Make sure you're logged in as \\"Administrator\\" (not just any account with admin privileges).
2. Navigate to START>Run and type: gpedit.msc
3. Navigate to Local Computer Policy > Administrative Templates > Network > QOS Packet Scheduler
4. In the right window, double-click the limit reservable bandwidth setting
5. On the setting tab, check the enabled setting.
6. Where it says \\"Bandwidth limit %\\", change it to read 0 (or whatever percentage you want to reserve for high priority QoS data)
7. Click OK, close gpedit.msc
Under START > My Computer > My Network Connections > View Network Connections, right-click on your connection and under Properties (where it lists your protocols), make sure QOS Packet Scheduler is enabled.
Alternate Method (Windows Registry)
Instead of editing the group policy, one can edit the Windows Registry directly:
[#ff0000]HKEY_LOCAL_MACHINE\SOFTWARE\Policies\Microsoft\Windows\Psched
NonBestEffortLimit=0[/#ff0000] (DWORD, not present in the registry by default. Recommended: 0 , possible values between 0 and 100) - indicates the percentage value of reserved bandwidth for QoS applications. Set to 0 to disable.
Notes: This tweak applies only to Windows versions that have Qos Packet Scheduler enabled.
You need to reboot for changes to take effect.
The Windows Vista registry location is the same as Windows XP
To read more about QoS and ToS/Diffserv, check the TCP Optimizer documentation, or refer to Technet/MSDN.
References:
Technet: QoS Tools and Settings
[/quote]
PROJET: boot on lan sur DDRAM vive
wep cette modif reg rentre dans les truc que je fait en 1er n config système.
donc sur mon système 1ER de ma SR2 cette modif est deja faite, mais j'ai zapper de la faire sur système serv.
Je vais le faire.
car oui 20% de 40GB ca fait pas mal
donc sur mon système 1ER de ma SR2 cette modif est deja faite, mais j'ai zapper de la faire sur système serv.

Je vais le faire.
car oui 20% de 40GB ca fait pas mal

- augur1
- Messages : 13167
- Inscription : ven. 12 janv. 2018 17:44
- Localisation : où tout est neuf et tout est sauvage
- Contact :
PROJET: boot on lan sur DDRAM vive
... 8 GB 

PROJET: boot on lan sur DDRAM vive
non bien de 40G.
bon après modif, aucun gain.
bon après modif, aucun gain.
PROJET: boot on lan sur DDRAM vive
hi hi
[/quote]
roo bis ... j'aurai du venir , j'suis trop blond parfois
ton topic et tes benchs sont d'enfer en tous cas 
roo 20% de 40 GO , ca fait [quotemsg] ... 8 GBnon bien de 40G.

roo bis ... j'aurai du venir , j'suis trop blond parfois


PROJET: boot on lan sur DDRAM vive
Pas tant que ca justement (enfin pour les contrôleur IB,benchs sont d'enfer en tous cas
Puis faut bien les interpréter (l'influence du cach sur les areca fausse souvent la donne

sinon 20% de moins sur 8GB = 20% de moins sur 40GB même si seulement 10 sont utiliser, mais dans les 2eme cas OSEF de perdre 20%.
bon demain je pousse les test en BoIB et Iscsi
Il faut aussi que je trouve quel reg modifier in système pour appliqué les:
dufer length
TCP win size
max segement size
- Larifounette
- Messages : 7803
- Inscription : ven. 12 janv. 2018 17:44
- Localisation : Maine et Loire
PROJET: boot on lan sur DDRAM vive
La SR2 qui bloc te dit, cm de poney !


- augur1
- Messages : 13167
- Inscription : ven. 12 janv. 2018 17:44
- Localisation : où tout est neuf et tout est sauvage
- Contact :
PROJET: boot on lan sur DDRAM vive
Supermicro X8DAH+, ya pas mieux $$
[*]2 (x16) PCI-E 2.0,
[*]4 (x8) PCI-E 2.0 (1 in x 16 slot),
[*]1(x4) PCI-E 2.0 (in x8 slot)

[*]2 (x16) PCI-E 2.0,
[*]4 (x8) PCI-E 2.0 (1 in x 16 slot),
[*]1(x4) PCI-E 2.0 (in x8 slot)

PROJET: boot on lan sur DDRAM vive
Il y a mieux : X8OBN-FSupermicro X8DAH+, ya pas mieux $$
[*]2 (x16) PCI-E 2.0,
[*]4 (x8) PCI-E 2.0 (1 in x 16 slot),
[*]1(x4) PCI-E 2.0 (in x8 slot)
http://www.materiel.net/live/127172.jpg
4 (x16) PCI-E 2.0 + 2 (x8) PCI-E 2.0 or 10x (x8) PCI-E 2.0 slots


PC1 = MW70-3S0 # 2x E5-2689 v4 # 32Go DDR4-2400 ECC reg # RTX 3080 Ti # 2x1To SSD
PC2 = Z170XP-SLI # i7-7700 # 32Go DDR4-2400 # 240Go NVMe # SAS9211-8i # 10 SSD/HDD SATA # LTO-5 SAS
PC3 = T460p # i7-6700HQ # 16Go DDR4-2133 # 940MX # 240Go SSD
PC2 = Z170XP-SLI # i7-7700 # 32Go DDR4-2400 # 240Go NVMe # SAS9211-8i # 10 SSD/HDD SATA # LTO-5 SAS
PC3 = T460p # i7-6700HQ # 16Go DDR4-2133 # 940MX # 240Go SSD
PROJET: boot on lan sur DDRAM vive
HHOO IL EST BEAU CELUI LA !!!
Pas ma faute si EVGA préfère mètre des KIKOO NF200 plutôt que 2 5520.
Je sait bien, 2 IOH 5520 ca DAYCHIRE.Supermicro X8DAH+, ya pas mieux $$
mais bon plein d'autre problème aussi.
X8OBN-F pas mal connaissé pas (enfin socket 14XX et WESTMERE EX), voila quoi,
8CPU WESTMERE EX 10CORE 20 TREAD ;;;;

enfin mon but c'est quand même de bouter a partir de ma conf principale.
mais je testerai bien ce truc

PROJET: boot on lan sur DDRAM vive
Sinon j'offre un SUPER CADEAU a celui qui trouve un datasheet officiel sur les NF200.

- augur1
- Messages : 13167
- Inscription : ven. 12 janv. 2018 17:44
- Localisation : où tout est neuf et tout est sauvage
- Contact :
PROJET: boot on lan sur DDRAM vive
ah wé sympa ... mais on met où le processeur là dessus ?Il y a mieux : X8OBN-F
4 (x16) PCI-E 2.0 + 2 (x8) PCI-E 2.0 or 10x (x8) PCI-E 2.0 slots
http://theburnerishot.com/photo/Supermicro-X8OBN-F-Mainboard.jpg

- Larifounette
- Messages : 7803
- Inscription : ven. 12 janv. 2018 17:44
- Localisation : Maine et Loire