Navigaweb.net logo

Scaricare interi siti internet su PC con tool gratuiti

Aggiornato il:
Riassumi con:
Come salvare una pagina web o un sito per intero, in HTML, per intero sul computer per conservarne una copia offline
In un altro articolo avevamo parlato di come sia possibile studiare la storia di internet, vedendo come si sono evoluti e come sono cambiati tutti i siti del passato, quali esistono ancora, quali sono spariti e cosi via, dalla WayBackMachine.

Salvare una singola pagina è banale, ma catturare un intero sito web mantenendo funzionanti i link interni, le immagini e la struttura originale è una sfida tecnica. I moderni siti dinamici, costruiti su script complessi, rendono obsoleti molti vecchi strumenti. Abbiamo selezionato le soluzioni che nel 2025 garantiscono ancora risultati affidabili, distinguendo tra semplici copiatori e sistemi di archiviazione avanzata.

LEGGI ANCHE: Aprire siti offline, senza connessione, su PC e cellulari

Cyotek WebCopy (La scelta equilibrata per Windows)

Per gli utenti Windows che cercano uno strumento gratuito ma ricco di opzioni, Cyotek WebCopy rappresenta il miglior compromesso. Nonostante non venga aggiornato con frequenza mensile, il suo motore di scansione rimane superiore a molte alternative moderne troppo semplificate.

La funzione chiave di WebCopy è la "rimappatura" dei collegamenti. Durante il download, il software analizza il codice HTML e riscrive i link interni in modo che puntino ai file scaricati sul disco rigido e non più all'indirizzo online. Questo garantisce che, cliccando su un menu del sito salvato, si apra la pagina locale corrispondente. È possibile configurare delle "Rules" (regole) per escludere intere sezioni, come aree amministrative o forum pesanti, ottimizzando lo spazio.

Va notato che WebCopy fatica con i siti costruiti interamente in JavaScript (Single Page Applications); in questi casi, il risultato potrebbe essere incompleto.

HTTrack (Il veterano open source)

Nonostante un'interfaccia ferma agli anni '90, HTTrack rimane il punto di riferimento storico per la clonazione di siti. È open source, disponibile per Windows, Linux e Android, ed è noto per la sua solidità nel creare "mirror" (specchi) fedeli.

Il vantaggio principale di HTTrack è la capacità di aggiornare un archivio esistente. Se scaricate un sito oggi e tra un mese volete la versione aggiornata, il programma è in grado di scaricare solo i file nuovi o modificati, risparmiando banda e tempo. Tuttavia, la configurazione può risultare ostica per i meno esperti a causa delle decine di parametri modificabili, come la profondità di scansione o i limiti di velocità.

Wget (La potenza della riga di comando)

Chi ha familiarità con il terminale troverà in GNU Wget lo strumento definitivo. Preinstallato su molte distribuzioni Linux e facilmente ottenibile su macOS e Windows, Wget è privo di interfaccia grafica ma imbattibile in velocità e precisione.

La sua forza sta nella capacità di eseguire compiti complessi con una singola riga di testo, aggirando spesso blocchi che fermano i browser tradizionali. Un comando tipico per l'archiviazione è:

wget --mirror --convert-links --adjust-extension --page-requisites --no-parent http://www.navigaweb.net

Questo comando istruisce il software a scaricare tutto il necessario per la visualizzazione offline (CSS, immagini), convertire i link e fermarsi ai confini del dominio specificato, evitando di scaricare l'intero web per errore.

SiteSucker per Mac

Su macOS e iOS, l'applicazione di riferimento è SiteSucker. Si tratta di un software a pagamento dal costo contenuto che automatizza il processo di download con un approccio "drag and drop".

SiteSucker scarica in modo ricorsivo pagine, immagini, PDF e fogli di stile, replicando la struttura delle directory del server originale. È particolarmente indicato per chi deve salvare siti statici, blog o documentazione tecnica senza doversi preoccupare di configurazioni complesse. Anche in questo caso, la gestione di siti con login complessi o paywall dinamici può risultare limitata.

ArchiveBox (L'archiviazione di nuova generazione)

Se il vostro obiettivo è salvare il web moderno (feed social, siti di notizie pieni di script, chat), i tool precedenti potrebbero fallire. Qui entra in gioco ArchiveBox, una soluzione self-hosted open source pensata per l'archivista digitale serio.

A differenza dei semplici downloader, ArchiveBox utilizza un vero browser (spesso Chrome in modalità headless) per visitare le pagine. Questo significa che salva non solo il codice sorgente, ma crea anche uno screenshot visivo, un PDF e un file in formato WARC (lo standard internazionale per l'archiviazione web). Richiede l'uso di Docker o un po' di competenza tecnica per l'installazione, ma è l'unico modo per avere una copia fedele al 100% di siti web complessi e interattivi.

SingleFile (Per salvare pagine singole alla perfezione)

Spesso non serve l'intero sito, ma solo un articolo specifico da conservare per sempre. L'estensione per browser SingleFile è insuperabile per questo scopo.

Invece di salvare una pagina web come "File HTML + una cartella piena di immagini", SingleFile incorpora tutto (testo, immagini, font, stili) in un unico file HTML leggero. Questo file può essere aperto con qualsiasi browser, trasferito su chiavetta USB o inviato via email, mantenendo il layout identico all'originale. È lo strumento ideale per creare un archivio di guide, ricette o articoli di giornale puliti e facili da catalogare.

Come scritto in un altro post, si possono sempre aprire siti spariti e pagine web non trovate (404) usando le copie cache.






0%