Tutorials

Tutorial

KI-Log-Analyse mit Ollama auf einem VPS: Anomalien mit einem lokalen LLM erkennen

Bauen Sie eine produktionsreife KI-Log-Analyse-Pipeline auf Ihrem VPS. Fragen Sie Loki nach Logs ab, klassifizieren Sie Anomalien mit einem lokalen LLM über Ollama und leiten Sie Alarme an Discord oder Slack weiter – mit einem Python-Skript und systemd-Timer.

13 Min. LesezeitLesen
Tutorial

Einen selbstheilenden VPS mit Prometheus und Ollama aufbauen

Verbinden Sie Prometheus-Alerts mit einem lokalen LLM, das Fehler diagnostiziert und sichere Gegenmaßnahmen auf Ihrem VPS ausführt. Vollständiger Arbeitscode mit Allowlists, Dry-Run-Modus und menschlichen Freigabekontrollen.

12 Min. LesezeitLesen
Tutorial

KI-Workflows in n8n mit Ollama und Claude auf einem VPS erstellen

Verbinden Sie n8n über zwei Wege mit KI-Modellen: Ollama für kostenlose lokale Inferenz und die Claude-API für Cloud-Intelligenz. Erstellen Sie einen Workflow zur Inhaltsklassifizierung mit beiden Optionen auf einem selbst gehosteten VPS.

13 Min. LesezeitLesen
Tutorial

Nginx als Reverse Proxy konfigurieren

Nginx als Reverse Proxy für Node.js, Ollama und andere Backends konfigurieren. Behandelt proxy_pass, Header-Weiterleitung, WebSocket-Unterstützung, Upstream-Lastverteilung und Timeout-Tuning für den Produktionsbetrieb.

10 Min. LesezeitLesen