(Courriels de diversion: <retractile@dedommagerent-aventurent.com> <satiriser@encourais-abrutissant.com> <selectionneriez@experimentatrice-fermetures.com> <sautera@ovarienne-persiflerent.com> <admireriez@repartiteurs-engendrions.com> <frustra@humaniserait-begayeras.com> <viabilisions@colportes-conformeraient.com> <imprecise@dechaînee-pleine.com> <louee@lanca-inhumation.com> <bavure@houillers-cals.com> )


Le 15 Août, jdd écrit :

> y a-t-il moyen d'avoir la liste des URL incluses dans une page html, de
> façon à pouvoir faire un paquet avec juste les fichiers utiles, et non pas
> tous ceux du répertoire? (un peu ce que l'on a dans le navigateur, mais je
> ne sais pas l'imprimer)

  Je m'étais fait un petit utilitaire perl pour me signaler les
fichiers manquants (en partant du principe que les URLs sont relatives).

  Voici le code :

use strict;
use HTML::LinkExtor;

sub cb {
   my ($tag, %links) = @_;
   my $target;
   my $alert = ' ';
   if ($tag eq 'img') {
      $target = $links{src};
   } elsif ($tag eq 'a') {
      $target = $links{href};
   }
   $alert = '*' if (!defined  $target || ! -f $target);
   print $alert . " " . $tag . " ". join(' ', @{[%links]}) . "\n";
}

while (@ARGV) {
   my $arg = shift @ARGV;
   print $arg . "\n";
   my $p = HTML::LinkExtor->new(\&cb);
   $p ->parse_file($arg);
}


-- 
Marc Thirion              | Toulouse, France
Un Travail pour Chacun    : http://www.multimania.com/untravailchacun/
Marc.Thirion@ISOscope.com : http://www.ISOscope.com/Pérennité des logiciels et des systèmes



---------------------------------------------------------------------
Aide sur la liste: <URL:mailto:linux-31-help@savage.iut-blagnac.fr>Le CULTe sur le web: <URL:http://www.CULTe.org>