Tutorials

Tutorial

KI-Log-Analyse mit Ollama auf einem VPS: Anomalien mit einem lokalen LLM erkennen

Bauen Sie eine produktionsreife KI-Log-Analyse-Pipeline auf Ihrem VPS. Fragen Sie Loki nach Logs ab, klassifizieren Sie Anomalien mit einem lokalen LLM über Ollama und leiten Sie Alarme an Discord oder Slack weiter – mit einem Python-Skript und systemd-Timer.

13 Min. LesezeitLesen
Tutorial

Einen selbstheilenden VPS mit Prometheus und Ollama aufbauen

Verbinden Sie Prometheus-Alerts mit einem lokalen LLM, das Fehler diagnostiziert und sichere Gegenmaßnahmen auf Ihrem VPS ausführt. Vollständiger Arbeitscode mit Allowlists, Dry-Run-Modus und menschlichen Freigabekontrollen.

12 Min. LesezeitLesen