Tutoriales

Tutorial

Análisis de logs con IA usando Ollama en un VPS: detectar anomalías con un LLM local

Construye un pipeline de análisis de logs con IA listo para producción en tu VPS. Consulta Loki, clasifica anomalías con un LLM local vía Ollama y envía alertas a Discord o Slack usando un script Python y un timer de systemd.

15 min de lecturaLeer
Tutorial

Construir un VPS autorreparable con Prometheus y Ollama

Conecta las alertas de Prometheus a un LLM local que diagnostica fallos y ejecuta acciones de remediación seguras en tu VPS. Código funcional completo con listas blancas, modo dry-run y controles de aprobación humana.

14 min de lecturaLeer
Tutorial

Crear workflows de IA en n8n con Ollama y Claude en un VPS

Conecta n8n a modelos de IA por dos caminos: Ollama para inferencia local gratuita y la API de Claude para inteligencia en la nube. Construye un workflow de clasificación de contenido con ambos, ejecutándolo en un VPS autoalojado.

15 min de lecturaLeer
Tutorial

Cómo configurar Nginx como reverse proxy

Configura Nginx como reverse proxy para Node.js, Ollama y otros backends. Cubre proxy_pass, reenvío de headers, WebSocket, upstream load balancing y ajuste de timeouts en producción.

12 min de lecturaLeer