Firefox, Chrome og andre nettlesere gjør en akseptabel jobb med å laste ned en enkelt fil av rimelig størrelse. Men jeg liker ikke å stole på en nettleser for å hente ISO bilder og andre filer som er hundrevis av megabyte, eller større. For at jeg foretrekker å slå til wget. Du vil finne at ved å bruke wget gir noen betydelige fordeler fremfor gripe filer med nettleseren din
Først av alt, det er den åpenbare &ndash.; hvis nettleseren krasjer eller du må starte en eller annen grunn, mister du ikke nedlastingen. Firefox og Chrome har vært ganske stabil for meg i det siste, men det er ikke uhørt for dem til å krasje. Det er litt av en bummer hvis de er 75% av veien (eller 98%) gjennom å laste ned en 3.6GB ISO for den nyeste Fedora eller opensuse DVD.
Det er også upraktisk når jeg ønsker å laste ned en fil på en server. For eksempel, hvis jeg setter opp WordPress på et eksternt system jeg trenger å være i stand til å få tarball med den siste versjonen på serveren. Det virker dumt å kopiere den til skrivebordet mitt og deretter bruke scp å laste den opp til serveren. Det er dobbelt så lang tid (minst). I stedet bruker jeg wget til å ta tak i tarball mens jeg er SSH'ed inn på serveren og redde meg selv et par minutter.
Til slutt, er prosedyre wget. Hvis du ønsker å skrape et webområde eller laste ned en fil hver dag på et bestemt tidspunkt, kan du bruke wget som en del av et skript som du ringer fra en cron jobb. Vanskelig å gjøre det med Firefox eller Chrome.
Kom i gang med wget
De fleste Linux-distribusjoner burde ha wget installert, men hvis ikke, bare søk etter den wget pakken. Flere andre pakker bruker eller referanse wget, så vil du sannsynligvis få flere resultater – inkludert noen front-ender for wget.
La oss starte med noe enkelt. Du kan laste ned filer over HTTP, FTP og HTTPS med wget, så la oss si at du ønsker å få den varme nye Linux Mint Fluxbox utgave. Bare kopiere URL til ISO image og gi det til wget som så:
wget http://ftp.mirrorsite.net/pub/linuxmint/stable/9/linuxmint-9-fluxbox-cd-i386 .iso
Selvfølgelig, vil du erstatte " mirrorsite " med et legitimt nettsted navn, og banen til ISO image med riktig bane.
Hva med flere filer? Her er der wget virkelig begynner å vise sine fordeler. Lag en tekstfil med nettadressene til filene, én per linje. For eksempel, hvis jeg ønsket å kopiere CD-ISO for Fedora 14 alpha, ville jeg kopiere nettadressen til hver installere ISO til en tekstfil som dette:
http://mirrorsite.net/pub/fedora /14 /cd1.iso
http://mirrorsite.net/pub/fedora/14/cd2.iso
http://mirrorsite.net/pub/fedora/14/cd3.iso
Du får ideen. Lagre filen som fedoraisos.txt eller lignende og så fortelle wget for å laste ned alle ISO bilder:
wget -i fedoraisos.txt
Nå wget vil begynne å ta tak i ISOs i rekkefølgen i tekstfilen. Det kan ta litt tid, avhengig av hastigheten på Internett-tilkobling, så hva skjer hvis overføringen avbrytes? Ingen svette. Hvis wget kjører, men nettverket går ned, vil det fortsette å prøve å hente filen og fortsette der den slapp.
Men hva hvis maskinen krasjer eller du må stoppe wget for noen annen grunn? Den wget verktøyet har en " fortsette " alternativ (c) som kan brukes til å gjenoppta en nedlasting som er blitt avbrutt. Bare starte nedlastingen med -c alternativet før argumentet med navnet filen (e) som så:
wget -c ftp://mirrorsite.net/filename.iso
Hvis du prøv å gjenoppta en nedlasting etter wget er stoppet, vil det vanligvis starte fra scratch og lagre til en ny fil med en 0,1 etter hoved filnavn. Dette er wget prøver å beskytte deg mot " clobbering " en tidligere fil.
Speiling og fler
Du kan også bruke wget til å speile et nettsted. Bruke --mirror alternativet, vil wget faktisk prøver å suge ned hele området, og vil følge linkene rekursivt å hente alt den mener er nødvendig for området.
Med mindre du eier et nettsted og prøver å gjøre en sikkerhetskopi, kan --mirror nettstedet være litt aggressiv. Hvis du prøver å laste ned en side for arkiveringsformål, kan p-alternativet (side) være bedre. Når wget er ferdig, vil det skape en katalog med navnet på (så hvis du prøvde Linux.com, ville det være linux.com) og alle de nødvendige filene under. Odds er når du åpner siden i en nettleser vil det ikke se helt rett, men det er en god måte å få innholdet på et nettsted.
passordbeskyttede sider er ikke et problem, som wget støtter flere alternativer for bestått brukernavn og passord til et nettsted. Bare bruk --user og --password alternativer, som så: wget --user = brukernavn --password = passord ftp://mirrornet.net/filename.file hvor brukernavnet og passordet er erstattet med legitimasjonen din. Du ønsker kanskje å spesifisere dette fra et manus hvis du er på en delt system, lest andre brukere se brukernavn og passord via toppen, ps eller lignende.
Noen ganger et område vil nekte tilgang til ikke-browser bruker agenter. Hvis dette er et problem, wget kan falske brukeragentstreng med --user-agenten = middel-streng.
Hvis du ikke har den raskeste tilkoblingen i verden, kan det være lurt å strupe wget en litt slik at den ikke forbruker den tilgjengelige båndbredden eller hamre et eksternt nettsted hvis du er på en rask tilkobling. For å gjøre det, kan du bruke alternativet --limit-rate, som dette:
wget --limit-rate = 2m http://filesite.net/filename.iso
Det vil fortelle wget planene sine nedlastinger på 2 megabyte, men du kan også bruke k å spesifisere kilobyte.
Hvis du tar deg en haug med filer, -w (vent) alternativet kan pause wget mellom filene . Så wget w = 1m vil stoppe wget ett minutt mellom nedlastinger.
Det er mye mer å wget, så husk å sjekke mannen siden for å se alle alternativene. I en fremtidig opplæringen, vil vi dekke bruker wget for mer komplekse oppgaver og undersøker HTTP-svar fra Apache. Anmeldelser