Tutoriels

Tutoriel

Analyse de logs par IA avec Ollama sur un VPS : détecter les anomalies avec un LLM local

Construisez un pipeline d'analyse de logs par IA sur votre VPS. Interrogez Loki, classifiez les anomalies avec un LLM local via Ollama et envoyez des alertes vers Discord ou Slack avec un script Python et un timer systemd.

15 min de lectureLire
Tutoriel

Construire un VPS auto-réparant avec Prometheus et Ollama

Connectez les alertes Prometheus à un LLM local qui diagnostique les pannes et exécute des actions de remédiation sécurisées sur votre VPS. Code fonctionnel complet avec listes blanches, mode dry-run et contrôles d'approbation humaine.

14 min de lectureLire
Tutoriel

Créer des workflows IA dans n8n avec Ollama et Claude sur un VPS

Connectez n8n à des modèles IA par deux chemins : Ollama pour l'inférence locale gratuite et l'API Claude pour l'intelligence cloud. Construisez un workflow de classification de contenu avec les deux, sur un VPS auto-hébergé.

15 min de lectureLire
Tutoriel

Configurer Nginx comme reverse proxy

Configurez Nginx comme reverse proxy pour Node.js, Ollama et d'autres backends. Ce guide couvre proxy_pass, le transfert de headers, le support WebSocket, le load balancing upstream et le réglage des timeouts en production.

12 min de lectureLire