(Courriels de diversion: <finie@sursoies-marchais.com> <atomique@marginaliserais-gesticuleras.com> <gouvernait@fermes-caseras.com> <reclassements@insinuer-dechiree.com> <impolitesse@retraduiront-echaufferas.com> <geriez@exproprie-t-shirt.com> <concretiseront@defraîchirent-decantant.com> <evenement@sot-indemnite.com> <revigorent@panache-reversons.com> <tisserions@festoyiez-epileront.com> )


	Hi

> > >Il s'agit d'aspirer la page de niveau 0, et selon une profondeur N, 
> > >d'aspirer uniquement certains liens de noms par exemple
> > 'suivant' ou
> > >'next'.

> > Wget est bourré d'options, entre autre il permet de regler le
> > niveau de profondeur de l'aspiration. Bon download !

> Et en particulier :
> 
> `-A ACCLIST --accept ACCLIST'
> `-R REJLIST --reject REJLIST'
>      Specify comma-separated lists of file name suffixes or patterns to
>      accept or reject (*Note Types of Files:: for more details).
>
> Qui permet de spécifier des masques pour les fichiers qu'on
> accpete/rejette.

Vous avez été +s à m'indiquer wget. merci.
Mais je souhaitais utiliser une fonction me permettant de spécifier les
noms des liens contenus dans les pages (au lieu de spécifier les noms des
fichiers).
Wget ne me semble pas réaliser la chose, pour supposer la chose, j'ai listé
les lignes d'options contenant les chaînes 'name' et 'link'.
Les voici:
 
$ wget --help | grep -i "name"
       --proxy-user=USER     set USER as proxy username.
  -g,  --glob=on/off     turn file name globbing on or off.

$ wget --help | grep -i "link"
       --retr-symlinks   retrieve FTP symbolic links.
  -k,  --convert-links         convert non-relative links to relative.
  -L,  --relative                   follow relative links only.
       --follow-ftp                 follow FTP links from HTML documents.

Résultat: nul.

Une autre idée ?

	A ------- bientôt.

---------------------------------------------------------------------
Aide sur la liste: <URL:mailto:linux-31-help@savage.iut-blagnac.fr>Le CULTe sur le web: <URL:http://www.CULTe.org>