Загрузка блога...
Блог
Новые модели, анонсы новых функций, успешные кейсы и аналитика от команды ZvenoAI

У вас есть n8n, в котором крутятся воркфлоу для обработки заявок, отправки уведомлений, парсинга данных. И в какой-то момент вы думаете: а было бы неплохо воткнуть сюда AI. Пусть классифицирует входящие сообщения, отвечает клиентам, суммаризирует тексты.
Идёте в ноду OpenAI Chat Model, вводите ключ от OpenAI... и вспоминаете, что у вас нет иностранной карты. Или что хочется попробовать разные модели, а заводить по аккаунту у каждого вендора неудобно, плюс придется ставить VPN, чтобы запросы доходили.
В этой статье показываю, как подключить Zveno AI к n8n. Суть в том, что Zveno AI реализует OpenAI-совместимый API, и n8n принимает его как родной. Вся настройка занимает пару минут.
Zveno AI агрегирует 200+ моделей от разных провайдеров через единый API. Один ключ, один base URL, а дальше указываете нужную модель: Claude, GPT, Gemini, Kimi, Mistral, Llama. Оплата в рублях, работает из России.
Зачем это в контексте n8n:
Не нужно заводить отдельные аккаунты у OpenAI, Anthropic, Google и думать об обходе региональных ограничений
Переключение между моделями без смены коннектора. Поменяли название модели в ноде и отправили запрос в другую LLM
Единый биллинг. Один счёт вместо трёх
Если вы юридическое лицо, тогда получите комплект закрывающих документов через ЭДО
Если вы здесь, скорее всего, уже знаете. Но на всякий случай: n8n это open-source платформа для автоматизации, что-то вроде Zapier, только с self-hosted вариантом и визуальным редактором воркфлоу. Можно собирать цепочки из нод: вебхук принял запрос, обработали данные, отправили в Telegram. С недавних пор n8n умеет работать с AI-агентами из коробки.
Логинимся (или регистрируемся, если ещё нет аккаунта). В панели управления переходим в раздел API Keys и создаём новый ключ. Я назвал его n8n чтобы потом не гадать, какой ключ для чего.
Ключ начинается с sk-. Скопируйте его сразу, потому что повторно посмотреть нельзя, только перегенерировать. Если аккаунт свежий, на балансе будет небольшой бонус для тестов. Для экспериментов с n8n хватит.
Открываем n8n и создаём новый воркфлоу. Нам нужны три ноды:
When chat message received - триггер, который принимает сообщения из встроенного чата n8n
AI Agent - нода-агент, которая оборачивает работу с моделью
OpenAI Chat Model - собственно, модель. Вот тут мы подставим Zveno AI
Соединяем их как на скриншоте:
Триггер "When chat message received" подключается к AI Agent. Нода OpenAI Chat Model цепляется к AI Agent через слот "Model".
Открываем ноду OpenAI Chat Model. В поле Credential to connect with жмём на выпадающий список.
Выбираем Create new credential. Откроется окно настройки OpenAI-подключения.
Заполняем два поля:
API Key: вставляем ключ из Шага 1 (sk-...)
Base URL: меняем на https://api.zveno.ai/v1
Жмём Save. Готово. n8n теперь будет отправлять запросы не на api.openai.com, а на api.zveno.ai. Формат запросов и ответов одинаковый, поэтому n8n не заметит разницы.
После этого в поле Model выбираем нужную модель. Формат названия: vendor/model-name Например:
openai/gpt-4.1-mini- дешёвая и быстрая
anthropic/claude_sonnet-4-5 - хороша для текстов и рассуждений
google/gemini-2.5-flash-preview - быстрая, длинный контекст
openai/gpt-4.1 - универсальная
Полный список моделей с ценами: zveno.ai/models.
AI Agent без памяти забывает контекст после каждого сообщения. Если нужен диалог, добавляем ноду Simple Memory и подключаем её к AI Agent через слот "Memory".
Жмём Execute Workflow, потом Open chat внизу экрана. Пишем что-нибудь.
Агент ответил. В логах видно, сколько токенов потрачено и через какие ноды прошёл запрос.
Собственно, всё. Рабочий AI-агент в n8n с доступом к 200+ моделям.
Чат через встроенный интерфейс n8n это тестовый режим. В реальных сценариях триггером будет не чат, а что-то другое:
Вебхук. Принимаете POST-запрос от внешнего сервиса, передаёте текст в AI Agent, отправляете ответ обратно. Например, классификация входящих обращений: пришло письмо, агент определил тему, дальше роутинг по категориям.
Расписание. Каждый день утром агент собирает данные из нескольких источников (Notion, Google Sheets, Jira), генерирует сводку и отправляет в Telegram.
Telegram-бот. Нода Telegram Trigger вместо чата. Пользователь пишет боту, агент отвечает. По сути, свой ChatGPT в Telegram, только через Zveno AI можно в любой момент поменять модель.
Обработка файлов. Документ упал в Google Drive, n8n поднял файл, извлёк текст, отправил на суммаризацию, результат в Slack.
Все эти сценарии работают с тем же коннектором, который мы только что настроили. Меняется только триггер и то, что делаете с ответом.
Допустим, вы начали с openai/gpt-4.1-mini, потому что дёшево. Потом поняли, что для вашей задачи не хватает качества. Открываете ноду OpenAI Chat Model, меняете модель на anthropic/claude-sonnet-4.5 и жмёте Save. Credential остаётся тот же, base URL тот же. Ничего больше трогать не нужно.
Вот, кстати, можно ознакомиться с этими моделями и ценами:
Это удобно для A/B-тестирования. Создали два воркфлоу с разными моделями, прогнали одинаковые запросы, сравнили результаты. Или просто переключились на новую модель, когда она вышла, без танцев с API-ключами.
"Unauthorized" или 401. Проверьте API-ключ. Скопируйте заново из панели Zveno AI и вставьте в credential.
Модель не найдена. Проверьте формат: vendor/model-name. Не gpt-5.2, а openai/gpt-5.2. Актуальные ID моделей на zveno.ai/models.
Таймаут. Некоторые модели (особенно reasoning-модели вроде anthropic/claude-opus-4.6) думают долго. Увеличьте таймаут в настройках ноды или используйте модели побыстрее.
402 (ERR_INSUFFICIENT_FUNDS). Проверьте баланс на zveno.ai. Если закончился, пополните.
Zveno AI встаёт в n8n через стандартный OpenAI-коннектор. Меняете Base URL, подставляете свой API-ключ. Дальше все 200+ моделей доступны из любой ноды, которая умеет работать с OpenAI.
Вся настройка заняла минуты две. Большую часть этого времени я придумывал название для API-ключа.
Ссылки:
Zveno AI Team