Tutorial
Analisi dei log con IA tramite Ollama su un VPS: rilevare anomalie con un LLM locale
Costruisci una pipeline di analisi log con IA pronta per la produzione sul tuo VPS. Interroga Loki, classifica le anomalie con un LLM locale tramite Ollama e invia avvisi a Discord o Slack con uno script Python e un timer systemd.
Costruire un VPS auto-riparante con Prometheus e Ollama
Collega gli alert di Prometheus a un LLM locale che diagnostica i guasti ed esegue azioni di rimedio sicure sul tuo VPS. Codice funzionante completo con allowlist, modalità dry-run e controlli di approvazione umana.
Creare workflow IA in n8n con Ollama e Claude su un VPS
Collega n8n ai modelli IA tramite due percorsi: Ollama per l'inferenza locale gratuita e l'API Claude per l'intelligenza cloud. Costruisci un workflow di classificazione dei contenuti con entrambi, su un VPS self-hosted.
Come configurare Nginx come reverse proxy
Configura Nginx come reverse proxy per Node.js, Ollama e altri backend. Copre proxy_pass, inoltro degli header, supporto WebSocket, bilanciamento del carico con upstream e tuning dei timeout in produzione.