Alojar agentes de IA en un VPS
Guía práctica para ejecutar agentes de IA como Claude Code, OpenClaw y Hermes en tu propio VPS. Tipos de agentes, dimensionamiento, protocolos de comunicación, seguridad y costes.
Los agentes de IA escriben código, gestionan servidores, automatizan flujos de trabajo y se comunican con servicios externos en tu nombre. Ejecutarlos en plataformas gestionadas implica pagar suscripciones, entregar tus datos a terceros y aceptar sus límites de uso.
Un VPS cambia esa ecuación. Tus agentes funcionan las 24 horas en hardware que tú controlas. Tus datos permanecen en tu servidor. Nadie limita tus llamadas a la API.
Esta guía cubre qué son los agentes de IA, cuáles puedes alojar tú mismo, qué hardware necesitan, cómo se comunican y cómo protegerlos. Cada sección enlaza a un tutorial práctico.
¿Qué son los agentes de IA y cómo funcionan?
Un agente de IA es un programa autónomo que usa un modelo de lenguaje grande (LLM) para decidir qué hacer y luego hacerlo. A diferencia de un chatbot que responde a una pregunta a la vez, un agente se ejecuta de forma continua. Mantiene el contexto entre tareas, llama a herramientas externas, lee y escribe archivos, ejecuta comandos de shell y encadena acciones sin esperar aprobación humana en cada paso.
En la práctica, un agente trabaja en un bucle:
- Observar -- leer una entrada desde un mensaje de usuario, un cambio de archivo, un webhook o un disparador programado
- Razonar -- el LLM decide qué acción tomar en función del contexto actual y las herramientas disponibles
- Actuar -- ejecutar esa acción (lanzar un comando, llamar a una API, editar un archivo, enviar un mensaje)
- Evaluar -- comprobar el resultado y decidir si la tarea está completa o necesita otra iteración
El LLM normalmente se ejecuta en remoto a través de una API (Anthropic, OpenAI o un modelo autoalojado). Lo que se ejecuta en tu VPS es el harness del agente: el código que gestiona el bucle, la ejecución de herramientas, la memoria y los canales de comunicación. Por eso la mayoría de los agentes necesitan sorprendentemente pocos recursos locales. La inferencia pesada ocurre en otro lugar.
Algunos agentes también soportan modelos locales a través de Ollama o vLLM. En ese caso, tu VPS necesita una GPU o bastante más RAM. Pero en la mayoría de escenarios de autoalojamiento, un VPS de 2-4 GB gestiona el harness del agente mientras el proveedor del LLM se encarga de la inferencia.
¿Por qué alojar agentes de IA en vez de usar plataformas gestionadas?
Autoalojar en un VPS cuesta menos (5-14 $/mes base frente a 20-50+ $/mes en suscripciones), mantiene tus datos en tu servidor, elimina los límites de uso y funciona las 24 horas sin depender de tu portátil. Tú eliges qué modelos llamar, qué herramientas instalar y cómo se comporta el agente. Las plataformas gestionadas deciden todo eso por ti.
Así se comparan los costes:
| Opción | Coste mensual | Qué obtienes |
|---|---|---|
| ChatGPT Plus | 20 $ | Chat web, funciones de agente limitadas, OpenAI controla tus datos |
| Claude Pro | 20 $ | Chat web/escritorio, límites de uso, datos procesados por Anthropic |
| Claude Max | 100-200 $ | Límites más altos, sigue siendo solo cloud |
| Plataforma de agentes gestionada | 30-50+ $ | Dependencia del proveedor, infraestructura opaca, datos fuera de tu control |
| VPS + claves API | 5-14 $/mes + consumo API | Control total, tus datos permanecen en tu servidor, sin límites de uso más allá de tu tier API |
El coste del VPS es la base. Sigues pagando por las llamadas a la API del LLM, pero controlas exactamente qué modelo llamas, con qué frecuencia y qué datos envías. No hay margen de intermediario.
Más allá del coste: por qué importa el autoalojamiento
Soberanía de datos. Tus prompts, la memoria del agente y las salidas nunca abandonan tu servidor. Para cualquiera que maneje datos de clientes, información regulada por el RGPD o código propietario, esto no es opcional. Las plataformas gestionadas procesan tus datos en su infraestructura bajo sus condiciones.
Sin límites de uso. Las plataformas gestionadas ralentizan a los usuarios intensivos. En tu VPS, los únicos límites son tu tier API con el proveedor del LLM y los recursos de tu servidor.
Disponibilidad 24/7. Los agentes que monitorizan, automatizan o responden a eventos necesitan ejecutarse continuamente. Un VPS sigue encendido cuando tu portátil se suspende.
Personalización total. Instala cualquier herramienta o biblioteca que quieras. No necesitas esperar a que una plataforma añada soporte para el servidor MCP que necesitas.
¿Qué tipos de agentes de IA puedes autoalojar?
El mundo de los agentes en 2026 se divide en cuatro categorías: agentes de código, asistentes de propósito general, herramientas de automatización de flujos de trabajo y agentes personalizados que construyes tú mismo.
| Agente | Propósito | RAM mín. | ¿GPU necesaria? | Protocolos soportados | Dificultad |
|---|---|---|---|---|---|
| Claude Code | Código, refactoring, flujos git | 2 GB | No | MCP (nativo) | Baja |
| OpenClaw | Asistente general, mensajería, automatización | 4 GB (8 GB con navegador) | No | MCP, skills personalizados | Media |
| Hermes Agent | Asistente con memoria persistente | 2 GB | No | MCP, agentskills.io | Baja |
| n8n | Automatización de flujos con nodos IA | 2 GB (4 GB recomendados) | No | HTTP, webhooks | Media |
| Agente personalizado | Lo que construyas | Variable | Opcional | Lo que implementes | Alta |
¿Qué es Claude Code y por qué ejecutarlo en un VPS?
Claude Code es la herramienta de codificación agéntica de Anthropic. Vive en tu terminal, lee toda tu base de código, edita archivos, ejecuta comandos, gestiona flujos de trabajo git y lanza sub-agentes para tareas paralelas. Usa Claude Opus 4.6 como motor de razonamiento y obtiene un 80,8 % en SWE-bench Verified.
Ejecutar Claude Code en un VPS significa que tu agente de codificación trabaja sin parar. Puede ejecutar pipelines de CI, monitorizar repositorios, gestionar tareas de refactoring programadas y responder a webhooks. Tu base de código permanece en un servidor que controlas en lugar de pasar por una plataforma gestionada.
Claude Code soporta MCP de forma nativa. Puedes conectarlo a bases de datos, APIs, sistemas de archivos y herramientas personalizadas a través de servidores MCP que se ejecutan en el mismo VPS. También soporta equipos de agentes: varias sesiones de Claude Code coordinándose en un proyecto compartido, con una sesión actuando como líder del equipo.
En cuanto a recursos, Claude Code es ligero. El harness del agente necesita unos 2 GB de RAM. Toda la inferencia pasa por la API de Anthropic.
¿Qué es OpenClaw?
OpenClaw (antes Clawdbot/Moltbot) es el agente de IA de código abierto más popular, con más de 250.000 estrellas en GitHub a marzo de 2026. Creado por Peter Steinberger, es un asistente de propósito general que se conecta a plataformas de mensajería como Signal, Telegram, Discord y WhatsApp.
A diferencia de Claude Code, que se centra en el código, OpenClaw actúa como asistente personal. Gestiona archivos, envía correos electrónicos, controla APIs, automatiza flujos de trabajo y navega por la web. Soporta múltiples backends LLM: Claude, GPT, DeepSeek y modelos locales a través de Ollama.
Autoalojar OpenClaw requiere más recursos que Claude Code. El mínimo es 2 vCPUs y 4 GB de RAM. Si activas la automatización del navegador (Playwright), prevé 8 GB porque cada instancia del navegador consume 1-2 GB por sí sola. El almacenamiento debe ser NVMe SSD: OpenClaw es sensible a las E/S durante las operaciones de Docker.
Aviso de seguridad: OpenClaw ha tenido problemas de seguridad graves. Palo Alto Networks identificó una «tríada letal» de riesgos: acceso a datos privados, exposición a contenido no fiable y capacidad de realizar comunicaciones externas mientras retiene la memoria. A principios de 2026, Koi Security auditó 2.857 skills en ClawHub y encontró 341 maliciosos, aproximadamente uno de cada ocho paquetes. Trata el ecosistema de skills de OpenClaw como no fiable. Audita cada skill antes de instalarlo y ejecuta OpenClaw en un entorno aislado.
¿Qué es Hermes Agent?
Hermes Agent es un agente de IA de código abierto desarrollado por Nous Research, publicado en febrero de 2026. Lo que lo distingue es la memoria persistente: Hermes recuerda tus preferencias, proyectos y entorno entre sesiones. Cuando resuelve un problema difícil, escribe un documento de skill reutilizable para no olvidar nunca la solución.
Hermes funciona en un VPS de 5 $/mes. Incluye más de 40 herramientas integradas y se conecta a Telegram, Discord, Slack, WhatsApp, Signal y la CLI a través de un único proceso de pasarela. Todos los datos permanecen en tu máquina. Sin telemetría, sin rastreo.
Los skills siguen el estándar abierto agentskills.io, lo que los hace portables y localizables entre agentes. Cuanto más tiempo funciona Hermes, más capaz se vuelve. Licencia MIT.
Automatización de flujos de trabajo: n8n con nodos IA
n8n no es un agente de IA en sí mismo, pero se convierte en uno cuando añades nodos IA. Puedes construir flujos de trabajo que llamen a LLMs, procesen respuestas y desencadenen acciones basadas en decisiones de la IA. Piensa en ello como la capa de conexión: conecta tu agente de IA con más de 400 integraciones sin escribir código personalizado para cada una.
Autoalojar n8n requiere 2 vCPUs y 4 GB de RAM para uso en producción. Usa PostgreSQL en lugar de SQLite para cualquier cosa más allá de pruebas. Si ejecutas una base de datos vectorial (Qdrant, Pinecone) junto a n8n, añade otros 2-4 GB de RAM.
¿Cómo funcionan los protocolos de agentes? (MCP, A2A, ANP)
Tres protocolos definen cómo se comunican los agentes de IA en 2026. No son estándares en competencia, sino capas complementarias. Cada uno resuelve un problema diferente, y conocerlos te ayuda a planificar tu instalación autoalojada.
| Protocolo | Creado por | Función | Cuándo lo necesitas |
|---|---|---|---|
| MCP (Model Context Protocol) | Anthropic | Conecta un agente con herramientas y fuentes de datos | Siempre. Así es como tu agente lee archivos, consulta bases de datos y llama a APIs |
| A2A (Agent-to-Agent) | Google (ahora Linux Foundation) | Permite a los agentes delegar tareas a otros agentes | Cuando ejecutas múltiples agentes que necesitan colaborar |
| ANP (Agent Network Protocol) | Comunidad/AAIF | Descubrimiento y enrutamiento de agentes a través de redes | Cuando tus agentes necesitan encontrar y autenticarse con agentes fuera de tu servidor |
MCP: agente a herramientas
MCP es un protocolo JSON-RPC que estandariza cómo un agente accede a capacidades externas. En vez de codificar llamadas a la API en duro, ejecutas servidores MCP que exponen herramientas (leer una base de datos, obtener una URL, ejecutar una consulta) y el agente se conecta como cliente.
MCP ha superado los 97 millones de descargas mensuales del SDK (Python + TypeScript combinados) en febrero de 2026. Todos los principales proveedores de IA lo soportan: Anthropic, OpenAI, Google, Microsoft, Amazon.
En un VPS autoalojado, los servidores MCP se ejecutan como procesos locales. Tu agente se conecta a ellos por stdio o HTTP. Tú controlas qué herramientas están disponibles, qué permisos tienen y a qué datos pueden acceder. Sin servidores de terceros involucrados.
A2A: agente a agente
A2A permite la delegación de tareas entre pares de agentes. Un agente puede pedir a otro que realice una tarea, seguir su progreso y recibir el resultado. Google lo creó en abril de 2025, lo donó a la Linux Foundation en junio de 2025, y en diciembre de 2025 la Agentic AI Foundation (AAIF) se convirtió en su hogar permanente junto a MCP.
Necesitas A2A cuando ejecutas múltiples agentes con diferentes especializaciones. Por ejemplo: un agente de código que delega tareas de documentación a un agente redactor, o un agente de monitorización que activa un agente de despliegue cuando pasan los tests.
ANP: descubrimiento de agentes
ANP se encarga del descubrimiento y el enrutamiento. Permite a los agentes encontrarse más allá de fronteras organizativas, autenticarse y establecer canales de comunicación. Piensa en ello como el DNS de los agentes.
Para la mayoría de instalaciones autoalojadas con agentes en un solo VPS, aún no necesitarás ANP. Se vuelve relevante cuando tus agentes necesitan interactuar con agentes en otros servidores u otras organizaciones.
¿Qué especificaciones de servidor necesitan los agentes de IA?
La mayoría de los agentes de IA son más ligeros de lo que cabría esperar. El LLM se ejecuta en remoto a través de una API. Tu VPS solo ejecuta el harness del agente, las herramientas y los servicios locales que añadas (bases de datos, colas de mensajes, servidores web).
Estos son los mínimos probados para configuraciones habituales:
| Configuración | vCPU | RAM | Almacenamiento | Coste mensual (Virtua) |
|---|---|---|---|---|
| Un solo agente (Claude Code o Hermes) | 1 | 2 GB | 40 GB SSD | 12 € |
| OpenClaw (solo texto) | 2 | 4 GB | 80 GB NVMe | 28 € |
| OpenClaw + automatización de navegador | 4 | 8 GB | 160 GB NVMe | 56 € |
| Varios agentes + base de datos | 4 | 8 GB | 160 GB SSD | 48 € |
| n8n + base vectorial + agente | 4 | 8 GB | 160 GB NVMe | 56 € |
| Stack completo (3+ agentes, BD, monitorización) | 6 | 12 GB | 240 GB NVMe | 84 € |
¿Cuándo necesitas una GPU? Solo si ejecutas un LLM local (Ollama, vLLM) en lugar de usar una API. Para modelos como Llama 3 o Mistral, necesitas al menos 16 GB de VRAM. La mayoría de instalaciones de agentes autoalojados no necesitan GPU porque la inferencia ocurre en el proveedor de la API.
El almacenamiento importa. Usa SSD o NVMe. Los agentes que usan Docker (OpenClaw, n8n) son sensibles a las E/S durante las operaciones con contenedores. El HDD causa retrasos notables en el arranque de contenedores y las operaciones de workspace.
Deja margen. Mantén al menos un 30 % de RAM libre bajo carga típica. Los agentes pueden tener picos durante cadenas de razonamiento complejas o al procesar ventanas de contexto grandes. Si tu VPS empieza a usar swap, los tiempos de respuesta del agente se degradan rápido.
¿Cómo asegurar un agente de IA autoalojado?
Los agentes de IA no son aplicaciones normales. Ejecutan código arbitrario basado en la salida de un LLM. Un agente con acceso al shell puede hacer todo lo que tu cuenta de usuario puede hacer. Un ataque de inyección de prompt puede convertir tu agente de codificación en una herramienta de exfiltración de datos. Esa realidad marca cada decisión de esta sección.
Trata a los agentes como código no fiable
El LLM que impulsa tu agente procesa entradas externas: mensajes de usuarios, contenidos de archivos, respuestas de APIs, páginas web. Cualquiera de ellas puede contener payloads de inyección de prompt. Asume que en algún momento, tu agente intentará hacer algo que no debería.
Principio de mínimo privilegio. Ejecuta cada agente como un usuario de sistema dedicado con permisos mínimos. Nunca ejecutes agentes como root. Da al usuario del agente acceso solo a los directorios y comandos que necesita.
# Create a dedicated user for your agent
sudo useradd -r -m -s /bin/bash agent-claude
sudo chmod 700 /home/agent-claude
Aísla la ejecución del agente en un sandbox
Un contenedor Docker estándar no es un límite de seguridad. Los contenedores comparten el kernel del host, y un atacante motivado (o un LLM confundido) puede escapar de un contenedor permisivo. Para un aislamiento real:
- MicroVMs (Firecracker, Kata Containers): cada agente tiene su propio kernel. Aislamiento más fuerte. Ideal para agentes que ejecutan código no fiable.
- gVisor: intercepta las syscalls en espacio de usuario. Más ligero que las microVMs pero más fuerte que los contenedores sin reforzar. Buen término medio.
- Contenedores reforzados: aceptable solo para agentes de confianza. Usa
--read-only,--no-new-privileges, elimina todas las capabilities, monta volúmenes mínimos.
Aislamiento de red
Los agentes no deberían tener acceso de red sin restricciones. Un agente que puede alcanzar cualquier IP puede exfiltrar datos o participar en ataques.
# Allow only the specific API endpoints your agent needs
sudo ufw default deny outgoing
sudo ufw allow out to any port 443 proto tcp # HTTPS for API calls
sudo ufw allow out to any port 53 proto udp # DNS
sudo ufw enable
Refina esto restringiendo las conexiones salientes a rangos de IP específicos de tu proveedor de LLM. Bloquea todo lo demás.
Gestiona los secretos correctamente
Nunca codifiques claves API en los archivos de configuración del agente. Usa archivos de entorno con permisos restringidos.
# Create a secrets file
sudo mkdir -p /etc/agent-claude
echo "ANTHROPIC_API_KEY=sk-ant-..." | sudo tee /etc/agent-claude/env > /dev/null
sudo chmod 600 /etc/agent-claude/env
sudo chown agent-claude:agent-claude /etc/agent-claude/env
Referéncialo en una unidad systemd con EnvironmentFile=/etc/agent-claude/env. La clave nunca aparece en listados de procesos ni en archivos de configuración legibles por otros usuarios.
Monitoriza y registra todo
Los agentes que se ejecutan de forma autónoma pueden comportarse de manera inesperada. Registra todas las acciones del agente y revísalas periódicamente.
# Watch agent logs in real time
journalctl -u agent-claude -f
# Check for unusual outbound connections
ss -tnp | grep agent-claude
Configura alertas para patrones inusuales: uso elevado de CPU, conexiones de red inesperadas, cambios rápidos en el sistema de archivos o agentes ejecutando comandos fuera de su ámbito normal.
Para una guía completa de hardening, consulta .
Cómo empezar con tu primer agente autoalojado
Elige un agente y ponlo en marcha. No intentes montar toda la pila de una vez.
Si quieres un asistente de codificación: empieza con Claude Code. Instala vía npm, autentícate y tendrás un agente funcional en minutos. La opción que menos recursos necesita.
Si quieres un asistente personal en tus apps de mensajería: despliega OpenClaw. La configuración lleva más tiempo (Docker, configuración de la plataforma de mensajería, selección de skills) pero te da el agente de propósito general más versátil. Cuenta con 4-8 horas para la configuración inicial.
Si quieres un agente con memoria persistente: prueba Hermes. Instalación con un solo comando, licencia MIT y mejora con el tiempo.
Si quieres automatización de flujos de trabajo con IA: monta n8n con nodos IA. Conecta tus herramientas y servicios existentes mediante flujos visuales. Ideal para tareas de automatización sin código.
Tus primeros pasos
Independientemente del agente que elijas:
- Aprovisiona un VPS. Empieza con 4 GB de RAM si no estás seguro. Puedes redimensionar más adelante.
- Asegura el servidor. Solo claves SSH, firewall activado, usuario no root creado. Haz esto antes de instalar nada más.
- Instala el agente. Sigue el tutorial específico para el agente elegido.
- Restringe los permisos. Ejecuta el agente como usuario dedicado. Limita el acceso de red. Almacena los secretos en archivos protegidos.
- Prueba desde fuera. Verifica que el agente funciona conectándote desde tu máquina local, no solo desde el propio servidor.
- Configura la monitorización. Como mínimo, observa los logs con
journalctl. Idealmente, configura alertas de recursos.
Cada tutorial enlazado en esta guía incluye verificación en cada etapa. Empieza con un agente, familiarízate con él y después amplía.
Copyright 2026 Virtua.Cloud. Todos los derechos reservados. Este contenido es una obra original del equipo de Virtua.Cloud. La reproducción, republicación o redistribución sin permiso escrito está prohibida.
¿Listo para probarlo?
Despliega tu propio servidor en segundos. Linux, Windows o FreeBSD.
Ver planes VPS