Tutorial

Tutorial

Analisi dei log con IA tramite Ollama su un VPS: rilevare anomalie con un LLM locale

Costruisci una pipeline di analisi log con IA pronta per la produzione sul tuo VPS. Interroga Loki, classifica le anomalie con un LLM locale tramite Ollama e invia avvisi a Discord o Slack con uno script Python e un timer systemd.

14 min di letturaLeggi
Tutorial

Costruire un VPS auto-riparante con Prometheus e Ollama

Collega gli alert di Prometheus a un LLM locale che diagnostica i guasti ed esegue azioni di rimedio sicure sul tuo VPS. Codice funzionante completo con allowlist, modalità dry-run e controlli di approvazione umana.

13 min di letturaLeggi
Tutorial

Creare workflow IA in n8n con Ollama e Claude su un VPS

Collega n8n ai modelli IA tramite due percorsi: Ollama per l'inferenza locale gratuita e l'API Claude per l'intelligenza cloud. Costruisci un workflow di classificazione dei contenuti con entrambi, su un VPS self-hosted.

14 min di letturaLeggi
Tutorial

Come configurare Nginx come reverse proxy

Configura Nginx come reverse proxy per Node.js, Ollama e altri backend. Copre proxy_pass, inoltro degli header, supporto WebSocket, bilanciamento del carico con upstream e tuning dei timeout in produzione.

12 min di letturaLeggi