Tutoriales
Análisis de logs con IA usando Ollama en un VPS: detectar anomalías con un LLM local
Construye un pipeline de análisis de logs con IA listo para producción en tu VPS. Consulta Loki, clasifica anomalías con un LLM local vía Ollama y envía alertas a Discord o Slack usando un script Python y un timer de systemd.
Construir un VPS autorreparable con Prometheus y Ollama
Conecta las alertas de Prometheus a un LLM local que diagnostica fallos y ejecuta acciones de remediación seguras en tu VPS. Código funcional completo con listas blancas, modo dry-run y controles de aprobación humana.
Crear workflows de IA en n8n con Ollama y Claude en un VPS
Conecta n8n a modelos de IA por dos caminos: Ollama para inferencia local gratuita y la API de Claude para inteligencia en la nube. Construye un workflow de clasificación de contenido con ambos, ejecutándolo en un VPS autoalojado.
Cómo configurar Nginx como reverse proxy
Configura Nginx como reverse proxy para Node.js, Ollama y otros backends. Cubre proxy_pass, reenvío de headers, WebSocket, upstream load balancing y ajuste de timeouts en producción.