yandex
Калькулятор ценТарифыАкцииДокументацияО насКарьера в Cloud.ruНовостиЮридические документыКонтактыРешенияРеферальная программаКейсыПартнерство с Cloud.ruБезопасностьEvolutionAdvancedEvolution StackОблако VMwareML SpaceВ чем отличия платформ?БлогОбучение и сертификацияМероприятияИсследования Cloud.ruЛичный кабинетВойтиЗарегистрироватьсяEvolution ComputeEvolution Managed KubernetesEvolution Object StorageEvolution Managed PostgreSQL®Облако для мобильных и веб‑приложенийАналитика данных в облакеEvolution Bare MetalEvolution SSH KeysEvolution ImageСайт в облакеEvolution DNSEvolution VPCEvolution Load BalancerEvolution Magic RouterEvolution DiskХранение данных в облакеEvolution Container AppsEvolution Artifact RegistryEvolution Managed ArenadataDBEvolution Managed TrinoEvolution Managed SparkАналитика данных в облакеEvolution ML InferenceEvolution Distributed TrainEvolution ML FinetuningEvolution NotebooksCurator Anti-DDoSCurator Anti‑DDoS+WAFUserGate: виртуальный NGFWStormWall: Anti-DDoSEvolution TagsEvolution Task HistoryCloud MonitoringCloud LoggingАренда GPUAdvanced Object Storage ServiceAdvanced Elastic Cloud ServerAdvanced Relational Database Service for PostgreSQLРазработка и тестирование в облакеAdvanced Image Management ServiceAdvanced Auto ScalingDirect ConnectCDNCross-platform connectionAdvanced Enterprise RouterAdvanced Cloud Backup and RecoveryAdvanced Data Warehouse ServiceAdvanced Elastic Volume ServiceAdvanced Cloud Container EngineAdvanced FunctionGraphAdvanced Container Guard ServiceAdvanced Software Repository for ContainerAdvanced Document Database Service with MongoDBAdvanced Relational Database Service for MySQLAdvanced Relational Database Service for SQL ServerCloud AdvisorAdvanced Server Migration ServiceAdvanced Data Replication ServiceAdvanced API GatewayAdvanced CodeArtsAdvanced Distributed Message Service for KafkaAdvanced Distributed Message Service for RabbitMQAdvanced DataArts InsightAdvanced CloudTableAdvanced MapReduce ServiceAdvanced Cloud Trace ServiceAdvanced Application Performance ManagementAdvanced Identity and Access ManagementAdvanced Enterprise Project Management ServiceVMware: виртуальный ЦОД с GPUVMware: виртуальный ЦОДУдаленные рабочие столы (VDI)VMware: сервер Bare MetalИнфраструктура для 1С в облакеУдаленные рабочие столыМиграция IT‑инфраструктуры в облако3D-моделирование и рендерингVMware: резервное копирование виртуальных машинVMware: резервный ЦОДVMware: резервное копирование в облакоVMware: миграция виртуальных машин
Поиск
Связаться с нами
Услуги

Worken AI разместил платформу для создания AI‑сотрудников в облаке Cloud.ru

Как разработчик развернул контур в России на управляемых облачных сервисах и перенес копию международной инсталляции платформы из облака иностранного провайдера

О компании

инфографика

Worken AI — разработчик одноименной платформы, на которой пользователи создают или выбирают готового виртуального сотрудника — Виртса. Такой сотрудник становится частью отдела продаж, поддержки или HR: он отвечает на заявки, обрабатывает заказы или поддерживает в адаптации новых членов команды.

Платформа Worken AI — это фреймворк для агентских решений, в рамках которого каждый Виртс оперирует строго теми сущностями, которые необходимы для выполнения его бизнес-задач. Такой подход опирается на глубокие интеграции Worken AI с внешней инфраструктурой компании-клиента: от чат-каналов всех типов (корпоративные мессенджеры, бот-платформы, виджеты, мессенджеры маркетплейсов) до CRM, внутренних сервисов и рабочих систем.

Благодаря этому Виртс получает доступ к данным и контексту именно там, где это требуется, без дублирования и перестройки инфраструктуры. Такой уровень встраиваемости обеспечивает удобное и поэтапное делегирование бизнес-процессов Worken AI: компании могут передавать виртуальному сотруднику отдельные операции, затем целые цепочки действий, постепенно расширяя его ответственность и автоматизируя всё больше функций без риска для текущих процессов.

Ключевая составляющая Виртса — движок на базе языковых моделей, вокруг которого работает система специализированных сервисов-агентов. Эти агенты принимают запрос пользователя из подключенных каналов (сайта, мессенджеров, виджетов), дополняют его контекстом (данными из базы знаний и интеграций), формируют обращение к выбранной AI-модели через API, затем обрабатывают ответ и передают его обратно в тот канал, откуда пришел запрос.

Виртсы могут работать с десятками языковых моделей разных вендоров. Для части клиентов по требованиям внутренней политики информационной безопасности важно, чтобы и модели, и инфраструктура обработки запросов были локализованы в России, поэтому Worken AI поддерживает сценарии работы с российскими и иностранными моделями и провайдерами: GigaChat, YandexGPT, OpenAI, Google, Anthropic.

Изначально команда Worken AI планировала выводить платформу в первую очередь на зарубежные рынки, поэтому развернула ее в облаке иностранного провайдера, используя cloud native подход: сервисы платформы работают в Docker-контейнерах, а базы данных и хранилища — на управляемых облачных сервисах.

Когда платформой заинтересовались российские клиенты, в том числе с повышенными требованиями к 152-ФЗ и локализации персональных данных, возникла задача развернуть идентичный контур в российских дата-центрах. Команда не хотела переписывать архитектуру и искала отечественного облачного провайдера с набором сервисов, сопоставимым с мировыми гиперскейлерами, чтобы перенести существующую инфраструктуру с минимальными изменениями — просто запустить ее копию в российском облаке.

Задача

Развернуть в облаке российский контур платформы Worken AI, функционально идентичный уже работающей международной инсталляции, и сделать это без переписывания приложения:

  • поднять backend-сервисы и вспомогательные компоненты платформы в Docker-контейнерах, оркестрируемых Kubernetes;
  • отдельно разместить frontend-часть (веб-интерфейс) платформы;
  • подключить управляемую СУБД для транзакционных данных и векторного поиска по базам знаний клиентов;
  • организовать объектное хранилище для документов и других файлов, на основе которых строятся векторные представления (Vector Store) пользователей Worken AI.

При выборе провайдера клиенту было критично, чтобы облако одновременно соответствовало требованиям 152-ФЗ и предлагало современный стек managed-сервисов и AI-инструментов.

Почему Cloud.ru

Как стартап, мы хотели использовать самые последние технологии. Мы искали провайдера в России, который следует той же стратегии, что и вся индустрия. Сервисы, которые позволяют стартапам быстрее начинать свою разработку, есть у Cloud.ru, поэтому мы выбрали этого провайдера. Роман Попов технический директор, Worken AI Мы выбирали из нескольких облачных провайдеров. Нам было важно, чтобы облако соответствовало требования 152-ФЗ и мы могли разворачивать в облаке собственные дообученные модели. Тарас Емельянов генеральный директор, Worken AI

Решение

Сохранив cloud native подход, Worken AI развернул российский контур платформы на управляемых сервисах платформы Cloud.ru Evolution. Основные backend-сервисы и API-шлюзы разработчик вынес в кластеры Evolution Managed Kubernetes — сервиса управления Kubernetes-кластерами. Это позволило перенести существующие Docker-образы и манифесты практически без изменений и использовать стандартные механизмы автоматического горизонтального масштабирования приложений и узлов кластера под реальную нагрузку.

Для хранения данных пользователей и векторных представлений документов Worken AI использует Evolution Managed PostgreSQL — управляемый кластер PostgreSQL, в котором Cloud.ru берет на себя развертывание и обновление кластера, мониторинг, резервное копирование и восстановление, а команда клиента управляет только схемой базы и запросами приложения.

Файлы баз знаний, вложения и резервные копии размещаются в Evolution Object Storage — S3-совместимом объектном хранилище.

Автоматизации на базе n8n и ряд вспомогательных сервисов разработчик развернул на виртуальных машинах Evolution Compute free tier, используя бесплатные ресурсы для тестовых сред и небольших нагрузок. Виртуальные машины дают полный контроль над окружением и при этом управляются через единый интерфейс и API Cloud.ru.

Отдельные контейнерные приложения, которым не нужен полноценный Kubernetes-кластер, запущены в Evolution Container Apps — бессерверном сервисе для развертывания контейнеров с автоматическим масштабированием и поминутной тарификацией по потребленным ресурсам.

В результате все ключевые сервисы российского контура платформы Worken AI работают в облаке Cloud.ru: входящие запросы пользователей проходят через frontend- и backend-сервисы, обращаются к управляемой базе данных и объектному хранилищу, а затем — к выбранным AI-моделям.

Для компании это независимый «второй контур», который повторяет функциональность глобальной версии платформы, но полностью размещен в российском облаке.

Все сервисы платформы лежат в облаке, все операции происходят там же, мы только отправляем запросы к моделям. Фактически мы параллельно с главной версией запустили в России свой контур, подняли второе плечо. Тарас Емельянов генеральный директор, Worken AI

Результат

В Cloud.ru мы получаем человеческое отношение и сервис: служба поддержки работает очень быстро и эффективно решает вопросы. Если говорить про функциональность облака, то все, что нам нужно, работает стабильно. Тарас Емельянов генеральный директор, Worken AI

Планы

После запуска российского контура платформы следующая задача для команды Worken AI — упростить работу с моделями и ускорить вывод новых сценариев в продакшен. Для этого важна возможность использования подхода «модель как сервис», что позволяет разворачивать и масштабировать любые AI-модели, в том числе из репозитория Hugging Face, без самостоятельного управления инфраструктурой инференса и при этом сохранять данные и вычисления в российской юрисдикции.

Если год–два назад мы в принципе не представляли профессиональное использование моделей без соответствующего обучения под клиента, то сегодня это вполне реально: даже маленькие open source модели покрывают большое количество запросов. То есть порог входа в AI для компаний снижается. Тарас Емельянов генеральный директор, Worken AI Мы видим тренд, о котором говорит команда Worken AI: вход в искусственный интеллект для бизнеса становится все проще за счет готовых моделей и инфраструктуры «из коробки». Наша задача как облачного провайдера — дать таким продуктовым командам тот же уровень свободы, что у мировых гиперскейлеров, но в российской юрисдикции.
Вокруг Evolution Foundation Models и сервисов AI Factory мы строим единый контур: готовые LLM с OpenAI-совместимым API, сервисы для инференса и дообучения собственных моделей, управляемые Kubernetes-кластеры, объектное хранилище и управляемые СУБД.
Благодаря этому, Worken AI может развивать Виртсов одновременно для глобального рынка и российских заказчиков на привычном cloud native стеке, удерживая данные и модели в инфраструктуре, соответствующей требованиям 152-ФЗ и уровню защищенности УЗ-1. Роман Путилов руководитель направления продвижения решений, Cloud.ru

Запросите бесплатную консультацию по вашему проекту

Cloud