AI-agenten zelf hosten op een VPS
Praktische gids voor het draaien van AI-agenten zoals Claude Code, OpenClaw en Hermes op je eigen VPS. Agenttypen, serverspecificaties, communicatieprotocollen, beveiliging en kosten.
AI-agenten schrijven code, beheren servers, automatiseren workflows en communiceren namens jou met externe diensten. Ze draaien op beheerde platformen betekent abonnementen betalen, je data aan derden geven en hun limieten accepteren.
Een VPS verandert die vergelijking. Je agenten draaien 24/7 op hardware die jij beheert. Je data blijft op je server. Niemand beperkt je API-aanroepen.
Deze gids behandelt wat AI-agenten zijn, welke je zelf kunt hosten, welke hardware ze nodig hebben, hoe ze communiceren en hoe je ze beveiligt. Elk onderdeel linkt naar een praktische tutorial.
Wat zijn AI-agenten en hoe werken ze?
Een AI-agent is een autonoom programma dat een groot taalmodel (LLM) gebruikt om te beslissen wat het moet doen, en het vervolgens doet. Anders dan een chatbot die één vraag tegelijk beantwoordt, draait een agent continu. Hij houdt context vast tussen taken, roept externe tools aan, leest en schrijft bestanden, voert shellcommando's uit en schakelt acties aaneen zonder bij elke stap op menselijke goedkeuring te wachten.
In de praktijk werkt een agent in een lus:
- Observeren -- input lezen van een gebruikersbericht, een bestandswijziging, een webhook of een geplande trigger
- Redeneren -- het LLM beslist welke actie moet worden ondernomen op basis van de huidige context en beschikbare tools
- Handelen -- die actie uitvoeren (een commando draaien, een API aanroepen, een bestand bewerken, een bericht sturen)
- Evalueren -- het resultaat controleren en beslissen of de taak voltooid is of nog een iteratie nodig heeft
Het LLM zelf draait doorgaans op afstand via een API (Anthropic, OpenAI of een zelf gehost model). Wat op je VPS draait is het agent-harness: de code die de lus, tooluitvoering, geheugen en communicatiekanalen beheert. Daarom hebben de meeste agenten verrassend weinig lokale rekenkracht nodig. De zware inferentie vindt elders plaats.
Sommige agenten ondersteunen ook lokale modellen via Ollama of vLLM. In dat geval heeft je VPS een GPU of aanzienlijk meer RAM nodig. Maar in de meeste selfhosting-scenario's handelt een VPS van 2-4 GB het agent-harness af terwijl de LLM-provider de inferentie doet.
Waarom AI-agenten zelf hosten in plaats van beheerde platformen gebruiken?
Zelf hosten op een VPS kost minder ($5-14/maand basis vs. $20-50+/maand abonnementen), houdt je data op je server, verwijdert limieten en draait 24/7 zonder afhankelijk te zijn van je laptop. Jij kiest welke modellen je aanroept, welke tools je installeert en hoe de agent zich gedraagt. Beheerde platformen beslissen dat allemaal voor je.
Zo vergelijken de kosten zich:
| Optie | Maandelijkse kosten | Wat je krijgt |
|---|---|---|
| ChatGPT Plus | $20 | Webchat, beperkte agentfuncties, OpenAI beheert je data |
| Claude Pro | $20 | Web-/desktopchat, gebruikslimieten, data verwerkt door Anthropic |
| Claude Max | $100-200 | Hogere limieten, nog steeds alleen cloud |
| Beheerd agentenplatform | $30-50+ | Vendor lock-in, ondoorzichtige infrastructuur, data buiten je controle |
| VPS + API-sleutels | $5-14/maand + API-verbruik | Volledige controle, je data blijft op je server, geen limieten buiten je API-tier |
De VPS-kosten zijn de basis. Je betaalt nog steeds voor LLM-API-aanroepen, maar je bepaalt precies welk model je aanroept, hoe vaak en welke data je stuurt. Geen tussenhandelaarstoeslag.
Voorbij de kosten: waarom zelf hosten ertoe doet
Datasoevereiniteit. Je prompts, agentgeheugen en outputs verlaten nooit je server. Voor iedereen die klantdata, AVG-gereguleerde informatie of propriëtaire code verwerkt, is dit geen optie. Beheerde platformen verwerken je data op hun infrastructuur onder hun voorwaarden.
Geen limieten. Beheerde platformen vertragen zware gebruikers. Op je VPS zijn de enige limieten je API-tier bij de LLM-provider en je serverresources.
24/7 beschikbaarheid. Agenten die monitoren, automatiseren of op events reageren moeten continu draaien. Een VPS blijft aan wanneer je laptop slaapt.
Volledige aanpassing. Installeer elke tool of bibliotheek die je wilt. Geen wachten tot een platform ondersteuning toevoegt voor de MCP-server die je nodig hebt.
Welke typen AI-agenten kun je zelf hosten?
De agentenwereld in 2026 splitst zich in vier categorieën: codeeragenten, algemene assistenten, workflowautomatiseringstools en aangepaste agenten die je zelf bouwt.
| Agent | Doel | Min. RAM | GPU nodig? | Protocolondersteuning | Moeilijkheid |
|---|---|---|---|---|---|
| Claude Code | Code, refactoring, git-workflows | 2 GB | Nee | MCP (native) | Laag |
| OpenClaw | Algemene assistent, messaging, automatisering | 4 GB (8 GB met browser) | Nee | MCP, aangepaste skills | Gemiddeld |
| Hermes Agent | Assistent met persistent geheugen | 2 GB | Nee | MCP, agentskills.io | Laag |
| n8n | Workflowautomatisering met AI-nodes | 2 GB (4 GB aanbevolen) | Nee | HTTP, webhooks | Gemiddeld |
| Aangepaste agent | Wat je bouwt | Varieert | Optioneel | Wat je implementeert | Hoog |
Wat is Claude Code en waarom op een VPS draaien?
Claude Code is Anthropics agentische codingtool. Het leeft in je terminal, leest je volledige codebase, bewerkt bestanden, voert commando's uit, beheert git-workflows en start subagenten voor parallelle taken. Het gebruikt Claude Opus 4.6 als redeneringsengine en scoort 80,8% op SWE-bench Verified.
Claude Code op een VPS draaien betekent dat je codeeragent de klok rond werkt. Het kan CI-pipelines draaien, repositories monitoren, geplande refactoringtaken afhandelen en op webhooks reageren. Je codebase blijft op een server die jij beheert in plaats van via een beheerd platform te gaan.
Claude Code ondersteunt MCP native. Je kunt het verbinden met databases, API's, bestandssystemen en aangepaste tools via MCP-servers die op dezelfde VPS draaien. Het ondersteunt ook agentteams: meerdere Claude Code-sessies die samenwerken aan een gedeeld project, met één sessie als teamleider.
Qua resources is Claude Code lichtgewicht. Het agent-harness heeft ongeveer 2 GB RAM nodig. Alle inferentie verloopt via Anthropics API.
Wat is OpenClaw?
OpenClaw (voorheen Clawdbot/Moltbot) is de populairste open-source AI-agent, met meer dan 250.000 GitHub-sterren per maart 2026. Gemaakt door Peter Steinberger, het is een algemene assistent die verbinding maakt met berichtenplatformen zoals Signal, Telegram, Discord en WhatsApp.
Anders dan Claude Code, dat zich richt op coderen, fungeert OpenClaw als persoonlijke assistent. Het beheert bestanden, verstuurt e-mails, bestuurt API's, automatiseert workflows en surft op het web. Het ondersteunt meerdere LLM-backends: Claude, GPT, DeepSeek en lokale modellen via Ollama.
Zelf hosten van OpenClaw vereist meer resources dan Claude Code. Het minimum is 2 vCPU's en 4 GB RAM. Als je browserautomatisering (Playwright) inschakelt, plan dan 8 GB in omdat elke browserinstantie op zichzelf 1-2 GB verbruikt. Opslag moet NVMe SSD zijn: OpenClaw is I/O-gevoelig tijdens Docker-operaties.
Beveiligingswaarschuwing: OpenClaw heeft ernstige beveiligingsproblemen gehad. Palo Alto Networks identificeerde een "dodelijke trias" van risico's: toegang tot privédata, blootstelling aan niet-vertrouwde content en het vermogen om externe communicatie uit te voeren terwijl het geheugen behoudt. Begin 2026 controleerde Koi Security 2.857 skills op ClawHub en vond 341 kwaadaardige, ruwweg één op acht pakketten. Behandel het skill-ecosysteem van OpenClaw als niet-vertrouwd. Controleer elke skill voordat je hem installeert en draai OpenClaw in een sandbox-omgeving.
Wat is Hermes Agent?
Hermes Agent is een open-source AI-agent gebouwd door Nous Research, uitgebracht in februari 2026. Wat het onderscheidt is persistent geheugen: Hermes onthoudt je voorkeuren, projecten en omgeving over sessies heen. Wanneer het een moeilijk probleem oplost, schrijft het een herbruikbaar skilldocument zodat het de oplossing nooit vergeet.
Hermes draait op een VPS van $5/maand. Het wordt geleverd met meer dan 40 ingebouwde tools en maakt verbinding met Telegram, Discord, Slack, WhatsApp, Signal en CLI via één gatewayproces. Alle data blijft op je machine. Geen telemetrie, geen tracking.
Skills volgen de open standaard agentskills.io, waardoor ze portabel en doorzoekbaar zijn tussen agenten. Hoe langer Hermes draait, hoe capabeler het wordt. MIT-licentie.
Workflowautomatisering: n8n met AI-nodes
n8n is op zichzelf geen AI-agent, maar wordt er één wanneer je AI-nodes toevoegt. Je kunt workflows bouwen die LLM's aanroepen, antwoorden verwerken en acties triggeren op basis van AI-beslissingen. Beschouw het als de verbindingslaag: verbind je AI-agent met meer dan 400 integraties zonder voor elk aangepaste code te schrijven.
Zelf hosten van n8n vereist 2 vCPU's en 4 GB RAM voor productiegebruik. Gebruik PostgreSQL in plaats van SQLite voor alles buiten testen. Als je een vectordatabase (Qdrant, Pinecone) naast n8n draait, reken op 2-4 GB extra RAM.
Hoe werken agentprotocollen? (MCP, A2A, ANP)
Drie protocollen definiëren hoe AI-agenten communiceren in 2026. Het zijn geen concurrerende standaarden maar complementaire lagen. Elk lost een ander probleem op, en ze kennen helpt je bij het plannen van je zelf gehoste opzet.
| Protocol | Gemaakt door | Functie | Wanneer je het nodig hebt |
|---|---|---|---|
| MCP (Model Context Protocol) | Anthropic | Verbindt een agent met tools en databronnen | Altijd. Zo leest je agent bestanden, bevraagt databases en roept API's aan |
| A2A (Agent-to-Agent) | Google (nu Linux Foundation) | Laat agenten taken delegeren aan andere agenten | Wanneer je meerdere agenten draait die moeten samenwerken |
| ANP (Agent Network Protocol) | Community/AAIF | Agentontdekking en routing over netwerken heen | Wanneer agenten agenten buiten je server moeten vinden en authenticeren |
MCP: agent naar tools
MCP is een JSON-RPC-protocol dat standaardiseert hoe een agent externe mogelijkheden benadert. In plaats van API-aanroepen hard te coderen, draai je MCP-servers die tools beschikbaar stellen (een database lezen, een URL ophalen, een query uitvoeren) en de agent verbindt ermee als client.
MCP heeft in februari 2026 97 miljoen maandelijkse SDK-downloads overschreden (Python + TypeScript gecombineerd). Alle grote AI-providers ondersteunen het: Anthropic, OpenAI, Google, Microsoft, Amazon.
Op een zelf gehoste VPS draaien MCP-servers als lokale processen. Je agent verbindt ermee via stdio of HTTP. Jij bepaalt welke tools beschikbaar zijn, welke permissies ze hebben en tot welke data ze toegang hebben. Geen servers van derden betrokken.
A2A: agent naar agent
A2A maakt peer-to-peer taakdelegatie tussen agenten mogelijk. Eén agent kan een andere vragen een taak uit te voeren, de voortgang volgen en het resultaat ontvangen. Google heeft het gemaakt in april 2025, gedoneerd aan de Linux Foundation in juni 2025, en in december 2025 werd de Agentic AI Foundation (AAIF) de permanente thuisbasis naast MCP.
Je hebt A2A nodig wanneer je meerdere agenten met verschillende specialisaties draait. Bijvoorbeeld: een codeeragent die documentatietaken delegeert aan een schrijfagent, of een monitoringagent die een deployment-agent triggert wanneer tests slagen.
ANP: agentontdekking
ANP handelt ontdekking en routing af. Het laat agenten elkaar vinden over organisatiegrenzen heen, authenticeren en communicatiekanalen opzetten. Beschouw het als DNS voor agenten.
Voor de meeste zelf gehoste opzetten met agenten op één enkele VPS heb je ANP nog niet nodig. Het wordt relevant wanneer je agenten moeten communiceren met agenten op andere servers of in andere organisaties.
Welke serverspecificaties hebben AI-agenten nodig?
De meeste AI-agenten zijn lichter dan je zou denken. Het LLM draait op afstand via een API. Je VPS draait alleen het agent-harness, tools en lokale diensten die je toevoegt (databases, message queues, webservers).
Dit zijn geteste minimumvereisten voor gangbare opstellingen:
| Opstelling | vCPU | RAM | Opslag | Maandelijkse kosten (Virtua) |
|---|---|---|---|---|
| Enkele agent (Claude Code of Hermes) | 1 | 2 GB | 40 GB SSD | €12 |
| OpenClaw (alleen tekst) | 2 | 4 GB | 80 GB NVMe | €28 |
| OpenClaw + browserautomatisering | 4 | 8 GB | 160 GB NVMe | €56 |
| Meerdere agenten + database | 4 | 8 GB | 160 GB SSD | €48 |
| n8n + vectordatabase + agent | 4 | 8 GB | 160 GB NVMe | €56 |
| Volledige stack (3+ agenten, DB, monitoring) | 6 | 12 GB | 240 GB NVMe | €84 |
Wanneer heb je een GPU nodig? Alleen als je een lokaal LLM (Ollama, vLLM) draait in plaats van een API te gebruiken. Voor modellen zoals Llama 3 of Mistral heb je minimaal 16 GB VRAM nodig. De meeste zelf gehoste agentenopstellingen hebben geen GPU nodig omdat de inferentie bij de API-provider plaatsvindt.
Opslag doet ertoe. Gebruik SSD of NVMe. Agenten die Docker gebruiken (OpenClaw, n8n) zijn I/O-gevoelig tijdens containeroperaties. HDD veroorzaakt merkbare vertraging bij containerstarts en workspace-operaties.
Houd ruimte over. Houd minimaal 30% RAM vrij onder typische belasting. Agenten kunnen pieken vertonen tijdens complexe redeneringsketens of bij het verwerken van grote contextvensters. Als je VPS begint te swappen, verslechteren de responstijden van de agent snel.
Hoe beveilig je een zelf gehoste AI-agent?
AI-agenten zijn geen normale applicaties. Ze voeren willekeurige code uit op basis van LLM-output. Een agent met shelltoegang kan alles doen wat je gebruikersaccount kan doen. Een prompt-injectieaanval kan je codeeragent in een data-exfiltratietool veranderen. Die realiteit bepaalt elke beslissing in dit onderdeel.
Behandel agenten als niet-vertrouwde code
Het LLM dat je agent aanstuurt verwerkt externe input: gebruikersberichten, bestandsinhoud, API-antwoorden, webpagina's. Elk daarvan kan prompt-injectiepayloads bevatten. Ga ervan uit dat je agent op enig moment zal proberen iets te doen wat niet de bedoeling is.
Principe van minimale rechten. Draai elke agent als een toegewijde systeemgebruiker met minimale permissies. Draai agenten nooit als root. Geef de agentgebruiker alleen toegang tot de mappen en commando's die nodig zijn.
# Create a dedicated user for your agent
sudo useradd -r -m -s /bin/bash agent-claude
sudo chmod 700 /home/agent-claude
Sandbox de agentuitvoering
Een standaard Docker-container is geen beveiligingsgrens. Containers delen de hostkernel, en een gemotiveerde aanvaller (of een verward LLM) kan uit een permissieve container ontsnappen. Voor echte isolatie:
- MicroVM's (Firecracker, Kata Containers): elke agent krijgt zijn eigen kernel. Sterkste isolatie. Het beste voor agenten die niet-vertrouwde code uitvoeren.
- gVisor: onderschept syscalls in user space. Lichter dan microVM's maar sterker dan kale containers. Goede middenweg.
- Geharde containers: alleen acceptabel voor vertrouwde agenten. Gebruik
--read-only,--no-new-privileges, verwijder alle capabilities, mount minimale volumes.
Netwerkisolatie
Agenten mogen geen onbeperkte netwerktoegang hebben. Een agent die elk IP-adres kan bereiken kan data exfiltreren of aan aanvallen deelnemen.
# Allow only the specific API endpoints your agent needs
sudo ufw default deny outgoing
sudo ufw allow out to any port 443 proto tcp # HTTPS for API calls
sudo ufw allow out to any port 53 proto udp # DNS
sudo ufw enable
Verfijn dit verder door uitgaande verbindingen te beperken tot specifieke IP-reeksen van je LLM-provider. Blokkeer al het andere.
Beheer secrets correct
Codeer API-sleutels nooit hard in agentconfiguratiebestanden. Gebruik omgevingsbestanden met beperkte permissies.
# Create a secrets file
sudo mkdir -p /etc/agent-claude
echo "ANTHROPIC_API_KEY=sk-ant-..." | sudo tee /etc/agent-claude/env > /dev/null
sudo chmod 600 /etc/agent-claude/env
sudo chown agent-claude:agent-claude /etc/agent-claude/env
Verwijs hiernaar in een systemd-unit met EnvironmentFile=/etc/agent-claude/env. De sleutel verschijnt nooit in proceslijsten of configuratiebestanden die andere gebruikers kunnen lezen.
Monitor en log alles
Agenten die autonoom draaien kunnen zich onverwacht gedragen. Log alle agentacties en controleer ze regelmatig.
# Watch agent logs in real time
journalctl -u agent-claude -f
# Check for unusual outbound connections
ss -tnp | grep agent-claude
Stel waarschuwingen in voor ongebruikelijke patronen: hoog CPU-gebruik, onverwachte netwerkverbindingen, snelle bestandssysteemwijzigingen of agenten die commando's uitvoeren buiten hun normale bereik.
Voor een volledige beveiligingshardening-handleiding, zie .
Hoe te beginnen met je eerste zelf gehoste agent
Kies één agent en krijg hem draaiend. Probeer niet de hele stack in één keer op te zetten.
Als je een codeerassistent wilt: begin met Claude Code. Installeer via npm, authenticeer, en je hebt een werkende agent in minuten. De lichtste optie qua resources.
Als je een persoonlijke assistent op je berichtenapps wilt: deploy OpenClaw. De opzet duurt langer (Docker, berichtenplatformconfiguratie, skillselectie) maar geeft je de meest veelzijdige algemene agent. Reken op 4-8 uur voor de initiële configuratie.
Als je een agent met persistent geheugen wilt: probeer Hermes. Installatie met één commando, MIT-licentie, en het wordt beter naarmate het langer draait.
Als je AI-gestuurde workflowautomatisering wilt: zet n8n op met AI-nodes. Verbind je bestaande tools en diensten via visuele workflows. Het beste voor automatiseringstaken zonder code.
Je eerste stappen
Ongeacht welke agent je kiest:
- Voorzie een VPS. Begin met 4 GB RAM als je twijfelt. Je kunt later opschalen.
- Beveilig de server. Alleen SSH-sleutels, firewall ingeschakeld, niet-rootgebruiker aangemaakt. Doe dit voordat je iets anders installeert.
- Installeer de agent. Volg de specifieke tutorial voor je gekozen agent.
- Beperk permissies. Draai de agent als toegewijde gebruiker. Beperk netwerktoegang. Bewaar secrets in beschermde bestanden.
- Test van buitenaf. Controleer of de agent werkt door verbinding te maken vanaf je lokale machine, niet alleen vanaf de server zelf.
- Stel monitoring in. Bekijk minimaal logs met
journalctl. Configureer idealiter resourcewaarschuwingen.
Elke tutorial die in deze gids gelinkt wordt bevat verificatie bij elke stap. Begin met één agent, word vertrouwd, breid dan uit.
Copyright 2026 Virtua.Cloud. Alle rechten voorbehouden. Deze inhoud is een origineel werk van het Virtua.Cloud-team. Reproductie, herpublicatie of herdistributie zonder schriftelijke toestemming is verboden.
Klaar om het zelf te proberen?
Deploy uw eigen server in seconden. Linux, Windows of FreeBSD.
Bekijk VPS-aanbod