Tutorials
KI-Log-Analyse mit Ollama auf einem VPS: Anomalien mit einem lokalen LLM erkennen
Bauen Sie eine produktionsreife KI-Log-Analyse-Pipeline auf Ihrem VPS. Fragen Sie Loki nach Logs ab, klassifizieren Sie Anomalien mit einem lokalen LLM über Ollama und leiten Sie Alarme an Discord oder Slack weiter – mit einem Python-Skript und systemd-Timer.
Einen selbstheilenden VPS mit Prometheus und Ollama aufbauen
Verbinden Sie Prometheus-Alerts mit einem lokalen LLM, das Fehler diagnostiziert und sichere Gegenmaßnahmen auf Ihrem VPS ausführt. Vollständiger Arbeitscode mit Allowlists, Dry-Run-Modus und menschlichen Freigabekontrollen.
KI-Workflows in n8n mit Ollama und Claude auf einem VPS erstellen
Verbinden Sie n8n über zwei Wege mit KI-Modellen: Ollama für kostenlose lokale Inferenz und die Claude-API für Cloud-Intelligenz. Erstellen Sie einen Workflow zur Inhaltsklassifizierung mit beiden Optionen auf einem selbst gehosteten VPS.
Nginx als Reverse Proxy konfigurieren
Nginx als Reverse Proxy für Node.js, Ollama und andere Backends konfigurieren. Behandelt proxy_pass, Header-Weiterleitung, WebSocket-Unterstützung, Upstream-Lastverteilung und Timeout-Tuning für den Produktionsbetrieb.