Self-hosting di agenti IA su un VPS
Guida pratica per eseguire agenti IA come Claude Code, OpenClaw e Hermes sul tuo VPS. Tipi di agenti, dimensionamento, protocolli di comunicazione, sicurezza e costi.
Gli agenti IA scrivono codice, gestiscono server, automatizzano workflow e comunicano con servizi esterni per conto tuo. Eseguirli su piattaforme gestite significa pagare abbonamenti, affidare i propri dati a terzi e accettare i loro limiti di utilizzo.
Un VPS cambia questa equazione. I tuoi agenti girano 24 ore su 24 su hardware che controlli tu. I tuoi dati restano sul tuo server. Nessuno limita le tue chiamate API.
Questa guida copre cosa sono gli agenti IA, quali puoi ospitare in autonomia, di quale hardware hanno bisogno, come comunicano e come metterli in sicurezza. Ogni sezione rimanda a un tutorial pratico.
Cosa sono gli agenti IA e come funzionano?
Un agente IA è un programma autonomo che usa un modello linguistico di grandi dimensioni (LLM) per decidere cosa fare e poi farlo. A differenza di un chatbot che risponde a una domanda per volta, un agente gira in modo continuo. Mantiene il contesto tra le attività, chiama strumenti esterni, legge e scrive file, esegue comandi shell e concatena azioni senza attendere l'approvazione umana a ogni passaggio.
In pratica, un agente lavora in un ciclo:
- Osservare -- leggere un input da un messaggio utente, una modifica a un file, un webhook o un trigger programmato
- Ragionare -- l'LLM decide quale azione intraprendere in base al contesto attuale e agli strumenti disponibili
- Agire -- eseguire l'azione (lanciare un comando, chiamare un'API, modificare un file, inviare un messaggio)
- Valutare -- verificare il risultato e decidere se l'attività è completata o serve un'altra iterazione
L'LLM stesso gira di solito in remoto tramite API (Anthropic, OpenAI o un modello self-hosted). Ciò che gira sul tuo VPS è l'harness dell'agente: il codice che gestisce il ciclo, l'esecuzione degli strumenti, la memoria e i canali di comunicazione. Per questo la maggior parte degli agenti richiede sorprendentemente poche risorse locali. L'inferenza pesante avviene altrove.
Alcuni agenti supportano anche modelli locali tramite Ollama o vLLM. In quel caso il VPS ha bisogno di una GPU o di molta più RAM. Ma nella maggior parte degli scenari di self-hosting, un VPS da 2-4 GB gestisce l'harness dell'agente mentre il provider LLM gestisce l'inferenza.
Perché fare self-hosting di agenti IA invece di usare piattaforme gestite?
Il self-hosting su un VPS costa meno (5-14 $/mese base contro 20-50+ $/mese in abbonamenti), tiene i dati sul tuo server, elimina i limiti di utilizzo e gira 24/7 senza dipendere dal tuo portatile. Sei tu a scegliere quali modelli chiamare, quali strumenti installare e come si comporta l'agente. Le piattaforme gestite decidono tutto questo per te.
Ecco come si confrontano i costi:
| Opzione | Costo mensile | Cosa ottieni |
|---|---|---|
| ChatGPT Plus | 20 $ | Chat web, funzionalità agente limitate, OpenAI controlla i tuoi dati |
| Claude Pro | 20 $ | Chat web/desktop, limiti di utilizzo, dati elaborati da Anthropic |
| Claude Max | 100-200 $ | Limiti più alti, comunque solo cloud |
| Piattaforma agenti gestita | 30-50+ $ | Vendor lock-in, infrastruttura opaca, dati fuori dal tuo controllo |
| VPS + chiavi API | 5-14 $/mese + consumo API | Controllo totale, i tuoi dati restano sul tuo server, nessun limite di utilizzo oltre al tuo tier API |
Il costo del VPS è la base. Continui a pagare per le chiamate API dell'LLM, ma controlli esattamente quale modello chiami, con quale frequenza e quali dati invii. Nessun ricarico da intermediari.
Oltre il costo: perché il self-hosting conta
Sovranità dei dati. I tuoi prompt, la memoria dell'agente e gli output non lasciano mai il tuo server. Per chiunque gestisca dati dei clienti, informazioni regolate dal GDPR o codice proprietario, questo non è opzionale. Le piattaforme gestite elaborano i tuoi dati sulla loro infrastruttura alle loro condizioni.
Nessun limite di utilizzo. Le piattaforme gestite rallentano gli utenti intensivi. Sul tuo VPS, gli unici limiti sono il tuo tier API presso il provider LLM e le risorse del tuo server.
Disponibilità 24/7. Gli agenti che monitorano, automatizzano o rispondono a eventi devono girare di continuo. Un VPS resta acceso quando il tuo portatile va in sospensione.
Personalizzazione totale. Installa qualsiasi strumento o libreria. Non devi aspettare che una piattaforma aggiunga il supporto per il server MCP di cui hai bisogno.
Quali tipi di agenti IA puoi ospitare in autonomia?
Il mondo degli agenti nel 2026 si divide in quattro categorie: agenti di codifica, assistenti generici, strumenti di automazione dei workflow e agenti personalizzati che costruisci tu stesso.
| Agente | Scopo | RAM min. | GPU necessaria? | Supporto protocolli | Difficoltà |
|---|---|---|---|---|---|
| Claude Code | Codice, refactoring, workflow git | 2 GB | No | MCP (nativo) | Bassa |
| OpenClaw | Assistente generico, messaggistica, automazione | 4 GB (8 GB con browser) | No | MCP, skill personalizzati | Media |
| Hermes Agent | Assistente con memoria persistente | 2 GB | No | MCP, agentskills.io | Bassa |
| n8n | Automazione workflow con nodi IA | 2 GB (4 GB consigliati) | No | HTTP, webhook | Media |
| Agente personalizzato | Quello che costruisci | Variabile | Opzionale | Quello che implementi | Alta |
Cos'è Claude Code e perché eseguirlo su un VPS?
Claude Code è lo strumento di codifica agentico di Anthropic. Vive nel tuo terminale, legge l'intera codebase, modifica file, esegue comandi, gestisce i workflow git e lancia sotto-agenti per attività parallele. Usa Claude Opus 4.6 come motore di ragionamento e ottiene l'80,8% su SWE-bench Verified.
Eseguire Claude Code su un VPS significa che il tuo agente di codifica lavora senza interruzioni. Può eseguire pipeline CI, monitorare repository, gestire attività di refactoring programmate e rispondere a webhook. La tua codebase resta su un server che controlli invece di passare attraverso una piattaforma gestita.
Claude Code supporta MCP nativamente. Puoi collegarlo a database, API, file system e strumenti personalizzati tramite server MCP che girano sullo stesso VPS. Supporta anche i team di agenti: più sessioni Claude Code che si coordinano su un progetto condiviso, con una sessione che funge da team leader.
In termini di risorse, Claude Code è leggero. L'harness dell'agente richiede circa 2 GB di RAM. Tutta l'inferenza passa per l'API di Anthropic.
Cos'è OpenClaw?
OpenClaw (precedentemente Clawdbot/Moltbot) è l'agente IA open source più popolare, con oltre 250.000 stelle su GitHub a marzo 2026. Creato da Peter Steinberger, è un assistente generico che si connette a piattaforme di messaggistica come Signal, Telegram, Discord e WhatsApp.
A differenza di Claude Code, che si concentra sulla codifica, OpenClaw agisce come assistente personale. Gestisce file, invia email, controlla API, automatizza workflow e naviga il web. Supporta più backend LLM: Claude, GPT, DeepSeek e modelli locali tramite Ollama.
Il self-hosting di OpenClaw richiede più risorse di Claude Code. Il minimo è 2 vCPU e 4 GB di RAM. Se attivi l'automazione del browser (Playwright), prevedi 8 GB perché ogni istanza del browser consuma 1-2 GB da sola. Lo storage deve essere NVMe SSD: OpenClaw è sensibile alle I/O durante le operazioni Docker.
Avviso di sicurezza: OpenClaw ha avuto seri problemi di sicurezza. Palo Alto Networks ha identificato una «triade letale» di rischi: accesso a dati privati, esposizione a contenuti non affidabili e capacità di effettuare comunicazioni esterne mantenendo la memoria. All'inizio del 2026, Koi Security ha verificato 2.857 skill su ClawHub e ne ha trovati 341 malevoli, circa uno su otto pacchetti. Tratta l'ecosistema di skill di OpenClaw come non affidabile. Verifica ogni skill prima di installarlo ed esegui OpenClaw in un ambiente sandboxato.
Cos'è Hermes Agent?
Hermes Agent è un agente IA open source sviluppato da Nous Research, rilasciato a febbraio 2026. Ciò che lo distingue è la memoria persistente: Hermes ricorda le tue preferenze, i tuoi progetti e il tuo ambiente tra una sessione e l'altra. Quando risolve un problema difficile, scrive un documento di skill riutilizzabile per non dimenticare mai la soluzione.
Hermes gira su un VPS da 5 $/mese. Include oltre 40 strumenti integrati e si connette a Telegram, Discord, Slack, WhatsApp, Signal e alla CLI tramite un unico processo gateway. Tutti i dati restano sulla tua macchina. Nessuna telemetria, nessun tracciamento.
Gli skill seguono lo standard aperto agentskills.io, rendendoli portabili e rintracciabili tra agenti. Più a lungo Hermes gira, più diventa capace. Licenza MIT.
Automazione dei workflow: n8n con nodi IA
n8n non è un agente IA di per sé, ma lo diventa quando aggiungi nodi IA. Puoi costruire workflow che chiamano LLM, elaborano risposte e attivano azioni basate su decisioni dell'IA. Consideralo come lo strato di collegamento: collega il tuo agente IA a oltre 400 integrazioni senza scrivere codice personalizzato per ognuna.
Il self-hosting di n8n richiede 2 vCPU e 4 GB di RAM per l'uso in produzione. Usa PostgreSQL invece di SQLite per qualsiasi cosa oltre ai test. Se esegui un database vettoriale (Qdrant, Pinecone) accanto a n8n, aggiungi altri 2-4 GB di RAM.
Come funzionano i protocolli degli agenti? (MCP, A2A, ANP)
Tre protocolli definiscono come gli agenti IA comunicano nel 2026. Non sono standard in competizione ma strati complementari. Ognuno risolve un problema diverso, e conoscerli ti aiuta a pianificare la tua installazione self-hosted.
| Protocollo | Creato da | Funzione | Quando serve |
|---|---|---|---|
| MCP (Model Context Protocol) | Anthropic | Collega un agente a strumenti e fonti dati | Sempre. È così che il tuo agente legge file, interroga database e chiama API |
| A2A (Agent-to-Agent) | Google (ora Linux Foundation) | Permette agli agenti di delegare attività ad altri agenti | Quando esegui più agenti che devono collaborare |
| ANP (Agent Network Protocol) | Comunità/AAIF | Scoperta e instradamento di agenti attraverso le reti | Quando i tuoi agenti devono trovare e autenticarsi con agenti fuori dal tuo server |
MCP: agente verso strumenti
MCP è un protocollo JSON-RPC che standardizza come un agente accede a capacità esterne. Invece di codificare le chiamate API in modo rigido, esegui server MCP che espongono strumenti (leggere un database, recuperare un URL, eseguire una query) e l'agente si connette come client.
MCP ha superato 97 milioni di download mensili dell'SDK (Python + TypeScript combinati) a febbraio 2026. Tutti i principali provider IA lo supportano: Anthropic, OpenAI, Google, Microsoft, Amazon.
Su un VPS self-hosted, i server MCP girano come processi locali. Il tuo agente si connette tramite stdio o HTTP. Controlli quali strumenti sono disponibili, quali permessi hanno e a quali dati possono accedere. Nessun server di terze parti coinvolto.
A2A: agente verso agente
A2A consente la delega di attività peer-to-peer tra agenti. Un agente può chiedere a un altro di eseguire un'attività, monitorarne il progresso e ricevere il risultato. Google lo ha creato nell'aprile 2025, lo ha donato alla Linux Foundation nel giugno 2025, e nel dicembre 2025 l'Agentic AI Foundation (AAIF) è diventata la sua sede permanente insieme a MCP.
Serve A2A quando esegui più agenti con specializzazioni diverse. Ad esempio: un agente di codifica che delega le attività di documentazione a un agente di scrittura, o un agente di monitoraggio che attiva un agente di deployment quando i test passano.
ANP: scoperta degli agenti
ANP gestisce scoperta e instradamento. Permette agli agenti di trovarsi oltre i confini organizzativi, autenticarsi e stabilire canali di comunicazione. Consideralo come il DNS per gli agenti.
Per la maggior parte delle installazioni self-hosted con agenti su un singolo VPS, non avrai ancora bisogno di ANP. Diventa rilevante quando i tuoi agenti devono interagire con agenti su altri server o in altre organizzazioni.
Di quali specifiche server hanno bisogno gli agenti IA?
La maggior parte degli agenti IA è più leggera di quanto si pensi. L'LLM gira in remoto tramite API. Il tuo VPS esegue solo l'harness dell'agente, gli strumenti e i servizi locali che aggiungi (database, code di messaggi, server web).
Ecco i minimi testati per le configurazioni comuni:
| Configurazione | vCPU | RAM | Storage | Costo mensile (Virtua) |
|---|---|---|---|---|
| Singolo agente (Claude Code o Hermes) | 1 | 2 GB | 40 GB SSD | 12 € |
| OpenClaw (solo testo) | 2 | 4 GB | 80 GB NVMe | 28 € |
| OpenClaw + automazione browser | 4 | 8 GB | 160 GB NVMe | 56 € |
| Più agenti + database | 4 | 8 GB | 160 GB SSD | 48 € |
| n8n + database vettoriale + agente | 4 | 8 GB | 160 GB NVMe | 56 € |
| Stack completo (3+ agenti, DB, monitoraggio) | 6 | 12 GB | 240 GB NVMe | 84 € |
Quando serve una GPU? Solo se esegui un LLM locale (Ollama, vLLM) invece di usare un'API. Per modelli come Llama 3 o Mistral, servono almeno 16 GB di VRAM. La maggior parte delle installazioni di agenti self-hosted non necessita di GPU perché l'inferenza avviene presso il provider API.
Lo storage conta. Usa SSD o NVMe. Gli agenti che usano Docker (OpenClaw, n8n) sono sensibili alle I/O durante le operazioni sui container. L'HDD causa ritardi evidenti all'avvio dei container e nelle operazioni sui workspace.
Lascia margine. Mantieni almeno il 30% di RAM libera sotto carico tipico. Gli agenti possono avere picchi durante catene di ragionamento complesse o nell'elaborazione di finestre di contesto ampie. Se il VPS inizia a fare swap, i tempi di risposta dell'agente peggiorano rapidamente.
Come mettere in sicurezza un agente IA self-hosted?
Gli agenti IA non sono applicazioni normali. Eseguono codice arbitrario basato sull'output di un LLM. Un agente con accesso alla shell può fare tutto ciò che il tuo account utente può fare. Un attacco di prompt injection può trasformare il tuo agente di codifica in uno strumento di esfiltrazione dati. Questa realtà guida ogni decisione di questa sezione.
Tratta gli agenti come codice non affidabile
L'LLM che guida il tuo agente elabora input esterni: messaggi utente, contenuti di file, risposte API, pagine web. Qualsiasi di questi può contenere payload di prompt injection. Presumi che a un certo punto il tuo agente proverà a fare qualcosa che non dovrebbe.
Principio del minimo privilegio. Esegui ogni agente come utente di sistema dedicato con permessi minimi. Non eseguire mai agenti come root. Dai all'utente dell'agente accesso solo alle directory e ai comandi necessari.
# Create a dedicated user for your agent
sudo useradd -r -m -s /bin/bash agent-claude
sudo chmod 700 /home/agent-claude
Esegui l'agente in un sandbox
Un container Docker standard non è un confine di sicurezza. I container condividono il kernel dell'host, e un attaccante motivato (o un LLM confuso) può evadere da un container permissivo. Per un isolamento reale:
- MicroVM (Firecracker, Kata Containers): ogni agente ha il proprio kernel. Isolamento più forte. Ideale per agenti che eseguono codice non affidabile.
- gVisor: intercetta le syscall nello spazio utente. Più leggero delle microVM ma più forte dei container nudi. Buon compromesso.
- Container rinforzati: accettabile solo per agenti affidabili. Usa
--read-only,--no-new-privileges, rimuovi tutte le capability, monta volumi minimi.
Isolamento di rete
Gli agenti non dovrebbero avere accesso di rete illimitato. Un agente che può raggiungere qualsiasi IP può esfiltrare dati o partecipare ad attacchi.
# Allow only the specific API endpoints your agent needs
sudo ufw default deny outgoing
sudo ufw allow out to any port 443 proto tcp # HTTPS for API calls
sudo ufw allow out to any port 53 proto udp # DNS
sudo ufw enable
Perfeziona ulteriormente limitando le connessioni in uscita ai range IP specifici del tuo provider LLM. Blocca tutto il resto.
Gestisci i segreti correttamente
Non codificare mai le chiavi API nei file di configurazione dell'agente. Usa file di ambiente con permessi ristretti.
# Create a secrets file
sudo mkdir -p /etc/agent-claude
echo "ANTHROPIC_API_KEY=sk-ant-..." | sudo tee /etc/agent-claude/env > /dev/null
sudo chmod 600 /etc/agent-claude/env
sudo chown agent-claude:agent-claude /etc/agent-claude/env
Fai riferimento a questo in un'unità systemd con EnvironmentFile=/etc/agent-claude/env. La chiave non appare mai nei listing dei processi o nei file di configurazione leggibili da altri utenti.
Monitora e registra tutto
Gli agenti che girano in autonomia possono comportarsi in modo inatteso. Registra tutte le azioni dell'agente e controllale regolarmente.
# Watch agent logs in real time
journalctl -u agent-claude -f
# Check for unusual outbound connections
ss -tnp | grep agent-claude
Configura allarmi per pattern insoliti: utilizzo elevato della CPU, connessioni di rete inattese, modifiche rapide al file system o agenti che eseguono comandi fuori dal loro ambito normale.
Per una guida completa all'hardening della sicurezza, consulta .
Come iniziare con il tuo primo agente self-hosted
Scegli un agente e fallo funzionare. Non provare a configurare l'intero stack tutto insieme.
Se vuoi un assistente di codifica: inizia con Claude Code. Installa tramite npm, autenticati e avrai un agente funzionante in pochi minuti. L'opzione con il minor consumo di risorse tra quelle elencate.
Se vuoi un assistente personale sulle tue app di messaggistica: distribuisci OpenClaw. La configurazione richiede più tempo (Docker, configurazione della piattaforma di messaggistica, selezione degli skill) ma ottieni l'agente generico più versatile. Prevedi 4-8 ore per la configurazione iniziale.
Se vuoi un agente con memoria persistente: prova Hermes. Installazione con un solo comando, licenza MIT e migliora nel tempo.
Se vuoi automazione dei workflow con IA: configura n8n con nodi IA. Collega i tuoi strumenti e servizi esistenti attraverso workflow visivi. Ideale per attività di automazione senza codice.
I tuoi primi passi
Indipendentemente dall'agente scelto:
- Provisiona un VPS. Inizia con 4 GB di RAM se sei indeciso. Puoi ridimensionare in seguito.
- Metti in sicurezza il server. Solo chiavi SSH, firewall attivo, utente non root creato. Fai questo prima di installare qualsiasi altra cosa.
- Installa l'agente. Segui il tutorial specifico per l'agente scelto.
- Limita i permessi. Esegui l'agente come utente dedicato. Limita l'accesso di rete. Conserva i segreti in file protetti.
- Testa dall'esterno. Verifica che l'agente funzioni collegandoti dalla tua macchina locale, non solo dal server stesso.
- Configura il monitoraggio. Come minimo, controlla i log con
journalctl. Idealmente, configura allarmi sulle risorse.
Ogni tutorial linkato in questa guida include una verifica a ogni fase. Inizia con un agente, prendi confidenza, poi espandi.
Copyright 2026 Virtua.Cloud. Tutti i diritti riservati. Questo contenuto è un'opera originale del team Virtua.Cloud. La riproduzione, ripubblicazione o redistribuzione senza autorizzazione scritta è vietata.
Pronto a provare?
Distribuisci il tuo server in pochi secondi. Linux, Windows o FreeBSD.
Vedi piani VPS