Bash
.
Si vous voulez juste télécharger une URL. Tapez juste : wget http://fly.srk.fer.hr/
.
Mais que se passera-t-il si la connexion est lente et le fichier gros ? La connexion sera probablement interrompue avant que l'intégralité du fichier ne soit rapatriée. Dans ce cas, Wget essayera de re-télécharger le fichier jusqu'à ce qu'il y arrive ou qu'il dépasse le nombre de tentatives par défaut (c'est-à-dire 20). Il est facile de changer le nombre de tentatives par 45, pour s'assurer que l'intégralité du fichier arrivera : wget --tries=45 http://fly.srk.fer.hr/jpg/flyweb.jpg
.
Maintenant laissons Wget travailler en arrière-plan, et écrire sa progression dans le fichier de log. C'est fatigant de taper --tries, aussi nous utiliserons -t. wget -t 45 -o log http://fly.srk.fer.hr/jpg/flyweb.jpg &
L'esperluette à la fin de la ligne envoie Wget à l'arrière plan. Pour avoir un nombre infini de tentatives, utilisez -t inf.
.
L'usage du FTP est aussi simple. Wget tiendra compte du login et du mot de passe. wget ftp://gnjilux.srk.fer.hr/welcome.msg
.
Si vous spécifiez un répertoire, Wget téléchargera l'inventaire du répertoire et le transformera en document HTML. Essayez : wget ftp://prep.ai.mit.edu/pub/gnu/ links index.html
Utilisation avancée Wget
.
Vous avez un fichier qui contient les URL que vous voulez télécharger, utiliser l'option -i : wget -i
Si vous spécifiez « - » comme nom de fichier, les URL seront lues depuis l'entrée standard. .
Créer une image miroir de profondeur 5 du site web de GNU, avec la même structure de répertoire que l'original, avec un seul essai par document, et en sauvegardant le log des activités dans gnulog : wget -r http://www.gnu.org/ -o gnulog
.
Même chose que ci-dessus mais en convertissant les liens dans les fichiers HTML pour pointer vers des fichiers locaux, pour que vous puissiez les consulter hors-ligne : wget --convert-links -r http://www.gnu.org/ -o gnulog
.