Вебинар
Онлайн
Для IT
AI-разработка под контролем: как сократить техдолг и уязвимости

Искусственный интеллект ускоряет разработку и помогает генерировать код быстрее. Но его бесконтрольное использование часто приводит к багам, уязвимостям и росту технического долга.
На вебинаре покажем, как встроить LLM в процесс разработки так, чтобы результат оставался предсказуемым, безопасным и соответствовал вашим стандартам, на примере связки LLM и VS Code.
В практической части разберем подключение популярных LLM и Evolution Foundation Models к VS Code, настройку IDE под ваш стиль, а также защитных ограничений от небезопасных действий и мониторинга качества и безопасности кода с помощью SonarQube.
Вы узнаете:
- как быстро запустить и контролировать генерацию кода с LLM в VS Code в enterprise-подходе;
- как выстроить правила, ограничения и стандарты (стиль, безопасность, предсказуемость результата) при работе с LLM;
- как настроить ранний контроль качества и безопасности через SonarQube и использовать MCP-серверы для более качественного кода.
Кому будет полезно:
- разработчикам, которые внедряют LLM в ежедневную разработку;
- архитекторам и техлидам, отвечающим за стандарты и качество кода;
- DevSecOps-инженерам, выстраивающим безопасные практики разработки;
- специалистам по ИБ, оценивающим риски использования LLM;
- руководителям разработки, которым важны управляемость и предсказуемость процесса.
Спикеры
Продукты, про которые расскажем
Evolution Foundation Models
Готовые LLM и AI-модели, доступные по API