Handleidingen
AI-loganalyse met Ollama op een VPS: anomalieën detecteren met een lokaal LLM
Bouw een productieklare AI-loganalyse-pipeline op je VPS. Bevraag Loki voor logs, classificeer anomalieën met een lokaal LLM via Ollama en stuur waarschuwingen naar Discord of Slack met een Python-script en systemd-timer.
Een zelfherstellende VPS bouwen met Prometheus en Ollama
Koppel Prometheus-alerts aan een lokaal LLM dat storingen diagnosticeert en veilige herstelacties uitvoert op je VPS. Volledig werkende code met allowlists, dry-run modus en menselijke goedkeuringscontroles.
AI-workflows bouwen in n8n met Ollama en Claude op een VPS
Verbind n8n met AI-modellen via twee paden: Ollama voor gratis lokale inferentie en de Claude API voor cloud-intelligentie. Bouw een contentclassificatie-workflow met beide op een zelf gehoste VPS.
Nginx configureren als reverse proxy
Configureer Nginx als reverse proxy voor Node.js, Ollama en andere backends. Behandelt proxy_pass, header forwarding, WebSocket-ondersteuning, upstream load balancing en productie-timeouts.