Уроки
AI-анализ логов с Ollama на VPS: обнаружение аномалий с помощью локальной LLM
Собери production-ready пайплайн AI-анализа логов на своём VPS. Запрашивай логи из Loki, классифицируй аномалии локальной LLM через Ollama и отправляй алерты в Discord или Slack с помощью Python-скрипта и systemd-таймера.
Самовосстанавливающийся VPS с Prometheus и Ollama
Подключите алерты Prometheus к локальной LLM, которая диагностирует сбои и выполняет безопасные действия по восстановлению на вашем VPS. Полный рабочий код с белыми списками, режимом dry-run и контролем человеческого одобрения.
AI-воркфлоу в n8n с Ollama и Claude на VPS
Подключите n8n к AI-моделям двумя путями: Ollama для бесплатного локального инференса и API Claude для облачного интеллекта. Соберите воркфлоу классификации контента с обоими вариантами на собственном VPS.
Настройка Nginx как обратного прокси
Настройте Nginx как reverse proxy для Node.js, Ollama и других бэкендов. Разбираем proxy_pass, проброс заголовков, WebSocket, upstream-балансировку и таймауты для продакшена.