Tutoriels
Analyse de logs par IA avec Ollama sur un VPS : détecter les anomalies avec un LLM local
Construisez un pipeline d'analyse de logs par IA sur votre VPS. Interrogez Loki, classifiez les anomalies avec un LLM local via Ollama et envoyez des alertes vers Discord ou Slack avec un script Python et un timer systemd.
Construire un VPS auto-réparant avec Prometheus et Ollama
Connectez les alertes Prometheus à un LLM local qui diagnostique les pannes et exécute des actions de remédiation sécurisées sur votre VPS. Code fonctionnel complet avec listes blanches, mode dry-run et contrôles d'approbation humaine.
Créer des workflows IA dans n8n avec Ollama et Claude sur un VPS
Connectez n8n à des modèles IA par deux chemins : Ollama pour l'inférence locale gratuite et l'API Claude pour l'intelligence cloud. Construisez un workflow de classification de contenu avec les deux, sur un VPS auto-hébergé.
Configurer Nginx comme reverse proxy
Configurez Nginx comme reverse proxy pour Node.js, Ollama et d'autres backends. Ce guide couvre proxy_pass, le transfert de headers, le support WebSocket, le load balancing upstream et le réglage des timeouts en production.