Dyson pour site web

Salut braves gens,

Un soft, si possible gratuit, qui marche bien, pour aspirer un site web sur plusieurs niveaux, vous avez des suggestions à me faire ?

Réponses

  • Sur Windows, HTTrack ! Je crois que Kiwix fait ça aussi. Sinon, sous Linux, en ligne de commandes, avec Wget et cURL, ça se fait très bien.

    NB A noter que Wget et cURL existent sous Windows.

  • Pas mieux...

  • Exemple d'aspiration avec Wget

    Il s'agit d'aspirer toute la documentation en français du site Apache. Rien que le français !

    wget -k -r -np -U "Mozilla/5.0 (Windows NT 6.1; rv:66.0) Gecko/20100101 Firefox/66.0" -x --keep-session-cookies --no-check-certificate -p -D "httpd.apache.org" --follow-ftp -B "http://httpd.apache.org/docs/current/fr/" -I "/docs/current/fr/" --reject-regex "/(da|de|en|es|ja|ko|pt-br|ru|tr|zh-cn)/" http://httpd.apache.org/docs/current/fr/

  • Merci pour les propositions. Je suis en train d'essayer HTTrack.

Connectez-vous ou Inscrivez-vous pour répondre.