Назад
Не словом, а кодом. Как организовать защиту LLM без потерь производительности?
Вебинар

Регистрация закрыта

Не словом, а кодом. Как организовать защиту LLM без потерь производительности?
Вебинар "Не словом, а кодом. Как организовать защиту LLM без потерь производительности?" состоится 31 июля 2025 года в 11:00 (мск). Генеративный ИИ и большие языковые модели (LLM) — это уже не технология будущего, а рабочий инструмент, меняющий бизнес-процессы. LLM пишут код, анализируют уязвимости и обрабатывают терабайты данных и чем больше отраслей, куда проникает технология — тем больше она интересна злоумышленникам. На вебинаре обсудим актуальное состояние законодательства в части защиты LLM и посмотрим на реальные угрозы, которые происходят уже сейчас: Prompt Injection и Jailbreak: как происходит эксфильтрация данных и обход защитных механизмов через специально сформированные промпты. Prompt Injection для отказа в обслуживании: как один запрос может исчерпать вычислительные ресурсы, вызвать деградацию сервиса и сжечь бюджеты на API. Небезопасная десериализация и атаки на MLOps-пайплайн: как уязвимости в инструментах загрузки моделей могут привести к выполнению произвольного кода. Состязательные возмущения (Adversarial Perturbations): Методы незаметного изменения входных данных для получения неверного или вредоносного вывода от модели. Внедрение бэкдоров: как происходит заражение модели и модификация архитектуры для создания скрытого контроля над моделью. Обязательности рассмотрим реальные технологии защиты, которые помогут вашему бизнесу быть устойчивее к атакам: Продвинутая валидация запросов/ответов Интерпретируемость (Interpretability) и прозрачность LLM Детекция аномалий и др. Необходимость защищать LLM уже реальность — регистрируйтесь.
Не словом, а кодом. Как организовать защиту LLM без потерь производительности?
Вебинар
  • 31/07/2025

    11:00 (UTC+03:00) Мск

    31/07/2025

    13:00 (UTC+03:00) Мск

  • Онлайн
  • Бесплатно

Анонс

Вебинар "Не словом, а кодом. Как организовать защиту LLM без потерь производительности?" состоится 31 июля 2025 года в 11:00 (мск). Генеративный ИИ и большие языковые модели (LLM) — это уже не технология будущего, а рабочий инструмент, меняющий бизнес-процессы. LLM пишут код, анализируют уязвимости и обрабатывают терабайты данных и чем больше отраслей, куда проникает технология — тем больше она интересна злоумышленникам. На вебинаре обсудим актуальное состояние законодательства в части защиты LLM и посмотрим на реальные угрозы, которые происходят уже сейчас: Prompt Injection и Jailbreak: как происходит эксфильтрация данных и обход защитных механизмов через специально сформированные промпты. Prompt Injection для отказа в обслуживании: как один запрос может исчерпать вычислительные ресурсы, вызвать деградацию сервиса и сжечь бюджеты на API. Небезопасная десериализация и атаки на MLOps-пайплайн: как уязвимости в инструментах загрузки моделей могут привести к выполнению произвольного кода. Состязательные возмущения (Adversarial Perturbations): Методы незаметного изменения входных данных для получения неверного или вредоносного вывода от модели. Внедрение бэкдоров: как происходит заражение модели и модификация архитектуры для создания скрытого контроля над моделью. Обязательности рассмотрим реальные технологии защиты, которые помогут вашему бизнесу быть устойчивее к атакам: Продвинутая валидация запросов/ответов Интерпретируемость (Interpretability) и прозрачность LLM Детекция аномалий и др.

Место проведения

Участвуй также

Угрозы под контролем: как объединить NDR и Deception для проактивной защиты сети
Вебинар
Бесплатно
Угрозы под контролем: как объединить NDR и Deception для проактивной защиты сети
Использование скомпрометированных учетных записей и легитимных инструментов позволяет злоумышленникам оставаться невидимыми для классических систем безопасности месяцами.☹ Справиться с проблемой помогает проактивный подход к защите сети, который не полагается только на сигнатурные методы. На вебинаре расскажем ✔ Почему атаки на основе легальных инструментов остаются незамеченными ✔ Как с помощью NDR выявлять отклонения и аномалии, невидимые сигнатурным решениям ✔ Какие подходы при внедрении Гарда Deception вы можете использовать ✔ Почему объединение NDR и Deception дает качественно иной уровень детектирования ✔ Что на самом деле хочет видеть заказчик, когда говорит о проактивной защите Присоединяйтесь, чтобы увидеть, как работают решения на практике, и задать ваши вопросы экспертам.
11 декабря 14:00
Онлайн