[Olug-list] Arkivering av nettsted

Thomas Gramstad thomas at ifi.uio.no
Tue Mar 4 00:10:57 CET 2014


Hei,

Jeg skal arkivere et nettsted under Linux og på minnepenn for en
forening, og det burde være en enkel oppgave, men når jeg utfører

wget --recursive --level=100 --page-requisites --html-extension
--convert-links --restrict-file-names=windows --domains
forn-sed.no --no-parent http://www.forn-sed.no/

så er det flere kataloger og filer som ikke kommer med. Det kan
nesten se ut som om det er en hard grense på 5 katalognivåer --
men --recursive skulle jo i utgangspubktet gi ubegrenset, og når
jeg i tillegg slenger på --level=100 så skulle iallfall alt komme
med. Men det gjør det altså ikke.

Og jeg får akkurat samme problem med scp -prv-kommandoen, der -r
er recursive.

Noen forslag til løsning?
Kan det være en begrensning på minnepinnen?

Thomas



More information about the Olug-list mailing list