Navigaweb.net logo

Installare modelli IA gratuiti su PC, chatbot locale e offline

Aggiornato il:
Scarica e usa l'intelligenza artificiale sul tuo computer senza internet. Guida pratica ai migliori LLM gratuiti come DeepSeek e Llama con LM Studio
llm pc offline

Affidarsi esclusivamente a servizi cloud come ChatGPT o Gemini comporta due compromessi: la privacy dei dati e la dipendenza da una connessione internet. Per chi lavora con documenti sensibili o vuole semplicemente sperimentare senza filtri aziendali, la soluzione è l'AI locale: portare il "cervello" digitale direttamente sul disco fisso di casa.

Eseguire un modello di linguaggio (LLM) sul proprio computer significa avere un assistente privato, funzionante offline, senza canoni mensili e con la certezza che nessuna conversazione venga inviata a server esterni. Grazie all'evoluzione hardware, questa operazione non richiede più lauree in ingegneria: bastano pochi clic.


LEGGI ANCHE: Usa modelli AI gratis in app con chiavi API da OpenRouter e Chutes .

Come funziona un'IA sul computer di casa

Prima di iniziare, facciamo una mega sintesi semplificata per capire come funzionano le applicazioni alimentate da IA come ChatGPT, la più famosa, ma solo una delle tante disponibili.
La storia inizia con il concetto dei LLM (Large Language Model), ossia il programma delle IA testuali. LLM, che significa modello linguistico di grandi dimensioni, è in grado di comprendere il linguaggio umano e generare risposte coerenti. Gli LLM utilizzano il deep learning, un tipo di machine learning che impara e acquisisce nuovi dati dal suo utilizzo.

In altre parole, un LLM è il modello linguistico sui cui si basa una intelligenza artificiale testuale, il motore che ci sta sotto. Per esempio, ChatGPT è basata sul modello GPT così come anche Microsoft Copilot, invece Gemini è di Google e Grok è il modello di X sui loro modelli proprietari, Llama, il motore di Meta AI (Facebook) e Gemma di Google sono invece esempi di LLM liberi per uso personale e ricerca.

A differenza dei modelli proprietari chiusi, i modelli che useremo sono "Open Weights" (a pesi aperti). Aziende come Meta, Z-AI, Mistral o DeepSeek rilasciano versioni pubbliche delle loro intelligenze artificiali. Per farle girare su computer consumer, si utilizza la quantizzazione: una tecnica di compressione intelligente che riduce il peso del modello (da 16 bit a 4 bit) mantenendo quasi intatte le capacità di ragionamento, ma abbattendo drasticamente i requisiti di memoria.

La migliore AI open source installabile su PC è, attualmente, DeepSeek, l'IA più potente e gratuita.

Requisiti Hardware: GPU e le nuove NPU

Il componente critico per l'AI locale è la VRAM (la memoria della scheda video). Tuttavia, nel 2025 lo scenario è cambiato grazie all'introduzione delle NPU (Neural Processing Unit) nei processori moderni.

  • Scheda Video (GPU): Una scheda NVIDIA (RTX 3060 o superiore) con almeno 8GB di VRAM resta la scelta migliore per velocità e compatibilità.
  • Processore con NPU: I PC recenti "Copilot+" con processori Intel Core Ultra, AMD Ryzen AI o Snapdragon X Elite possono scaricare parte del lavoro sulla NPU, risparmiando batteria sui portatili.
  • Mac Apple Silicon: I chip M1, M2, M3 e M4 sono eccezionali. Grazie alla memoria unificata, un MacBook con 16GB o 24GB di RAM può gestire modelli molto più grandi rispetto a un PC Windows di pari prezzo.
  • RAM di sistema: Se non avete una scheda video potente, il modello userà la RAM del computer. 16GB sono il minimo sindacale, 32GB sono consigliati per modelli complessi.
Senza dilungarci oltre nella teoria, l'importante è sapere che mentre GPT di OpenAI è un LLM proprietario a pagamento (almeno GPT3 e GPT4), ci sono altri LLM come Llama di Facebook, Mistral e Gemma di Google possono essere utilizzati gratuitamente per progetti personali e ricerca (nella pagina Wikipedia in inglese sugli LLM c'è una lista completa).
Un punto critico dei servizi cloud, come Google Gemini, è l’introduzione di pubblicità o funzionalità premium che limitano l’esperienza gratuita. Al contrario, un’AI locale garantisce libertà da costi nascosti o dipendenze da server esterni, anche se potrebbe richiedere hardware adeguato per prestazioni ottimali.

Se ci stavamo ora chiedendo se sia possibile utilizzare un'IA come ChatGPT gratuitamente e senza limitazioni, ecco quindi che la risposta è sicuramente affermativa. Possiamo facilmente installare un programma LLM sul PC, Windows, Linuc o Mac, ed utilizzarlo liberamente e gratis, che funzionano anche offline, senza collegarsi a server o servizi esterni.

Ci sono moltissimi modi per installare una IA sul PC e tanti programmi che funzionano da interfaccia per chattare con l'intelligenza artificiale. Alcuni di essi sono semplici e gratuiti, altri più complicati.

Software per installare l'AI su Windows, Mac e Linux

Esistono diversi "hub" che semplificano il download e l'utilizzo di questi modelli. Ecco i migliori strumenti aggiornati.

LM Studio: La soluzione visuale completa

lm studio

Per chi vuole iniziare subito, LM Studio è lo standard di riferimento. È gratuito per uso personale e offre un'interfaccia grafica curata. La funzione "Discover" permette di cercare modelli (es. "Llama 3.2") direttamente dall'archivio di Hugging Face, evidenziando in verde quelli compatibili con il vostro hardware.

LMStudio non è un software open source, quindi viene poco citato dalle varie guide, ma funziona veramente bene, è semplice da installare e attivare, non richiede pacchetti aggiuntivi ed è pronto all'uso. Dopo il download e l'installazione, verrà chiesto di scaricare un modello LLM e la scelta può essere DEepseek, Mistral o Llama che possono essere usati liberamente. Nella sezione developer è possibile caricare il modello LLM scaricato sul PC e nella sezione discover è possibile trovare i modelli LLM scaricabili, tra cui Deepseek e Llama sono quelli consigliati anche perchè occupano meno spazio disco.

LM Studio supporta ora anche la visione (potete trascinare immagini in chat per farle analizzare) e l'accelerazione via NPU su hardware supportato, rendendolo estremamente versatile.

Ollama: Il motore leggero e flessibile

Se si vuole una soluzione completamente open source, allora è possibile installare il programma Ollama, gratuito. Usare Ollama, tuttavia, è un po' più complicato. Prima di tutto, bisogna scaricare l'interprete dei comandi Python sul PC e poi installare un'interfaccia grafica.

Python non richiede alcuna configurazione, anche se bisogna assicurarsi che il percorso d'installazione sia aggiunto alle variabili d'ambiente del PC (in Windows, cercare variabili d'ambiente sul menù Start).

Tramite comando Python (su una finestra Terminale Windows), si può scaricare l'LLM per Ollama. Anche qui si può scegliere un modello Llama 3.2 o Gemma 2 (che richiedono meno memoria RAM) o anche Mistral che è perà più grande. Nella pagina Github di Ollama ci sono i comandi da lanciare per il download.

Per esempio, per scaricare Llama, con Ollama in esecuzione, si deve aprire un prompt dei comandi su Windows (o Terminale) e scrivere il comando ollama run llama3.2 .

La vera potenza di Ollama sta nell'ecosistema. Poiché manca di una grafica nativa avanzata, si consiglia di abbinarlo a interfacce esterne come Open WebUI (che clona l'aspetto di ChatGPT) o AnythingLLM. Quest'ultimo è particolarmente utile per creare una base di conoscenza privata: potete caricare PDF e documenti aziendali e l'AI risponderà basandosi solo su quei dati (RAG).

Essendo Ollama un'applicazione server, va da se che sia possibile accedere alla chat IA, per esempio quella di ConfyChat, anche tramite smartphone aprendo la pagina web indicata (di solito all'indirizzo 127.0.0.1:numeroporta), sempre che lo smartphone sia collegato alla stessa rete wifi del computer.

ollama

In questo modo, diventa facile avere una IA testuale come ChatGPT. Le soluzioni come LM Studio, anche se non open source, è molto efficiente, sopratutto su PC meno potenti. Ollama anche funziona benissimo sul mio PC, con 16 GB di RAM e una scheda video di qualche anno fa non sembra soffrire di lentezza.

Cherry Studio, Pinokio e GPT4All

Seguendo la rotta di Navigaweb verso l'aggregazione di servizi, segnaliamo il già trattato Cherry Studio, un unico software per integrare tutte le AI. È un client desktop elegante che permette di gestire sia modelli locali (tramite Ollama) sia API di servizi online (come OpenAI o Anthropic) in un'unica finestra.

Un'alternativa storica è GPT4All, che rimane ottima per chi possiede computer datati senza scheda video dedicata, grazie a modelli ottimizzati per funzionare solo su CPU.

Inoltre è possiible anche installare le IA generative e LLM a scelta da Pinokio Browser, software gratuito per PC e Mac anch'esso descritto in un altro post.

I Migliori Modelli LLM da scaricare (Fine 2025)

Il panorama cambia velocemente. Al momento, questi sono i modelli con il miglior rapporto prestazioni/risorse:

  • DeepSeek R1 / V3: L'attuale re dell'open source. Eccellente nel ragionamento logico, matematica e programmazione. La versione "Distill" da 7 o 8 miliardi di parametri è gestibile da molti PC domestici.
  • Llama 3.2 (Meta): La versione più recente di Meta include capacità multimodali (può vedere immagini) ed è ottimizzata per l'efficienza. I modelli da 3B (piccolissimo) e 11B (medio) coprono quasi tutte le esigenze.
  • Mistral (Nemo o Small): Sempre affidabile, molto veloce e spesso meno soggetto a "rifiuti morali" nelle risposte rispetto ai modelli americani.
  • Phi-3.5 (Microsoft): Il campione dei modelli "piccoli". Se avete un laptop con poca memoria, questo è il modello da scegliere per avere risposte coerenti senza rallentare il sistema.

Questi modelli, disponibili su Hugging Face, sono spesso rilasciati in versioni quantizzate (es. 4-bit), che riducono il consumo di risorse senza sacrificare qualità. DeepSeek R1 è consigliato per chi inizia.

Chattare con IA LLM su Smartphone

Il modo più semplice per installare un modello LLM sul telefono è fornito da Google con un'applicazione che permette di installare Gemma AI su Android e iPhone senza troppe complicazioni.

Anche i telefoni oggi sono abbastanza potenti da far girare piccoli modelli. Su Android e iOS, l'app LM Playground o Private AI permettono di scaricare versioni quantizzate di Llama o Gemma. Per gli utenti iPhone, l'app LLM Bridge è eccellente per connettersi al server Ollama del PC di casa quando si è sotto la stessa rete Wi-Fi, portando la potenza del computer desktop sul palmo della mano.

Altro Utile

  • Questi modelli imparano dalle mie chat? No. I modelli locali sono "statici". Una volta chiusa la sessione, resettano la memoria a breve termine. I vostri dati rimangono sul PC e non vengono usati per addestrare future versioni.
  • Posso generare immagini con questi programmi? LM Studio e Ollama gestiscono principalmente testo e visione (analisi immagini). Per generare immagini servono software diversi basati su Stable Diffusion o Flux, come ComfyUI o Forge.
  • Perché il modello risponde lentamente? Probabilmente il modello è troppo grande per la vostra RAM/VRAM e il computer sta usando il disco fisso come memoria (swap), rallentando tutto. Provate un modello più piccolo (es. passare da un 11B a un 3B o 7B).

LEGGI ANCHE: Alternative migliori a ChatGPT su Smartphone.


Un commento


Posta un commento

Un Commento
  • falonef
    1/1/25

    buongiorno claudio e buon anno. ti faccio i miei complimenti per gli articoli che scrivi. si sente proprio che sono scritti con tanta passione. sei molto bravo. ti auguro il meglio per il 2025 👏🏻


0%