
je souhaite me monter une infra Big Data @ home, d'une part pour m'auto-former sur la partie technique/architecture mais aussi parce que ça pourrait me servir pour le taff, voire plus.
Côté hardware, j'ai un Proliant 370G5 avec 8 cpu, 32Go de ram, un raid 5 de 72Go SAS en 15K, et mon NAS sur lequel je vais créer un ou plusieurs points de montage iSCSI.
Côté software, j'ai installé XenServer 6.5 sur le Proliant et je comptais monter plusieurs VM à base de CentOS 7.1
Pour le "Big Data" en lui-même, je suis parti sur la distrib Cloudera CDH 5.5.1 (qui package Apache Hadoop) et j'aimerais par la suite mettre en oeuvre le trio "Elastic Search/LogStash/Kibana".
Pour la partie Cloudera, je vais me baser sur ces tutoriels :
http://mbaron.developpez.com/tutoriels/ ... dera-cdh5/
http://mbaron.developpez.com/tutoriels/ ... dera-cdh5/
Pour le trio ELK, j'ai trouvé ceci : https://www.digitalocean.com/community/ ... n-centos-7
Mais pour la partie Xen j'ai moins d'expérience. J'ai acquis un T400 ici pour installer XenCenter et voir comment tout cela fonctionne. Si vous avez des tutos sous le coude pour créer des VM avec Xen et gérer les partages disques (je pensais créer un point de montage sur mon NAS en iSCSI, afin que toutes les VM puissent taper dessus, ça parait cohérent ce que je raconte ?).
Mes premières interrogations tournent pour le moment autour de l'unique machine que j'ai à dispo pour travailler : ne vraudrait-il pas mieux installer directement un Linux dessus et ainsi profiter de la puissance directement, ou au contraire monter 6 noeuds avec 1 CPU et 4Go de ram par exemple ?

Charles