Page 1 sur 1
récupération d\'images
Publié : mer. 4 janv. 2012 18:56
par gizmo78
yop,
je suis un topic images sur un forum et j'aimerais savoir si vous connaissiez un logiciel pour récupérer toutes les images?
j'ai essayé avec httrack mais j'arrive pas à le faire parcourir toutes les pages :/
merci
récupération d\'images
Publié : mer. 4 janv. 2012 21:02
par biour
un aspirateur de site web tout simple?
récupération d\'images
Publié : mer. 4 janv. 2012 21:15
par gizmo78
bas j'aimerais juste récupérer les images :/
on m'avait filé un script en perl qui le faisait mais y fonctionne pas et j'y connais que dalle en perl xD
récupération d\'images
Publié : mer. 4 janv. 2012 21:25
par gizmo78
je demande pas un script tout fait, juste une piste sur un moyen de le faire
récupération d\'images
Publié : mar. 31 janv. 2012 17:07
par Zedoune
Tu fais un httrack et ensuite tu fais un script qui récupères que les images, je l'ai déjà fait ça marche bien.
Et dans httrack doit y avoir une option pour filtrer les extensions à récupérer
récupération d\'images
Publié : mar. 31 janv. 2012 17:17
par poulpito
ouaip tu as un filtre d'extension
après il faut lui donner la page primaire du forum
lui dire de rester sur les urls qui ont la même forme (pour pas qu'il balade ailleurs par les liens externes)
et la ou je suis pas sur c'est la profondeur d'exploration je crois que c'est lié au nombre de page du topic en question
récupération d\'images
Publié : mar. 31 janv. 2012 17:38
par gizmo78
le topic à pas loin de 2k de pages
faut que je m'y replonge mais j'ai d'autres choses à finir avant ^^
récupération d\'images
Publié : mar. 31 janv. 2012 17:47
par Zedoune
Sur un forum mesdiscussions tu peux appuyer sur le petit lien

et t'obtiens beaucoup moins de pages

(39 pour le ping pong)
récupération d\'images
Publié : mar. 31 janv. 2012 17:52
par gizmo78
c'est pas un mesdiscussions ^^
récupération d\'images
Publié : mar. 31 janv. 2012 17:56
par Zedoune
Ben tu regardes comment l'url est faite et tu fais un petit script du style :
PAGE=0
PAGE_MAX=2000
while [ $PAGE -nq $PAGE_MAX ]
do
wget -c -r -l 1 --no-parent -A .jpg
http://smpfr.mesdiscussions.net/smpfr/B ... _$PAGE.htm
PAGE=$(( $PAGE + 1 ))
done
C'est sensé appeler les pages une par une jusqu'à la dernière et ne récupérer que les .jpg de la page, et avec -c on ne les récupère pas si elles existent déjà.
récupération d\'images
Publié : mar. 31 janv. 2012 17:58
par gizmo78
merci

récupération d\'images
Publié : mer. 1 févr. 2012 16:36
par Zedoune
Pourquoi se casser la tête avec un aspirateur de site ?
Ca a marché ?
récupération d\'images
Publié : mer. 1 févr. 2012 16:37
par gizmo78
j'ai pas testé encore ^^
ce vendredi/we je devrais avoir le temps