Handleidingen

Handleiding

AI-loganalyse met Ollama op een VPS: anomalieën detecteren met een lokaal LLM

Bouw een productieklare AI-loganalyse-pipeline op je VPS. Bevraag Loki voor logs, classificeer anomalieën met een lokaal LLM via Ollama en stuur waarschuwingen naar Discord of Slack met een Python-script en systemd-timer.

13 min leestijdLezen
Handleiding

Een zelfherstellende VPS bouwen met Prometheus en Ollama

Koppel Prometheus-alerts aan een lokaal LLM dat storingen diagnosticeert en veilige herstelacties uitvoert op je VPS. Volledig werkende code met allowlists, dry-run modus en menselijke goedkeuringscontroles.

12 min leestijdLezen
Handleiding

AI-workflows bouwen in n8n met Ollama en Claude op een VPS

Verbind n8n met AI-modellen via twee paden: Ollama voor gratis lokale inferentie en de Claude API voor cloud-intelligentie. Bouw een contentclassificatie-workflow met beide op een zelf gehoste VPS.

13 min leestijdLezen
Handleiding

Nginx configureren als reverse proxy

Configureer Nginx als reverse proxy voor Node.js, Ollama en andere backends. Behandelt proxy_pass, header forwarding, WebSocket-ondersteuning, upstream load balancing en productie-timeouts.

11 min leestijdLezen