FC-09

OWASP LLM Top 10, Prompt Injection, Adversarial ML, атаки на RAG и Supply Chain. AI Red Teaming по MITRE ATLAS с Garak, PyRIT и Counterfit. Пререквизиты: FC-04, FC-06.

45 уроков9 модулейПродвинутый3 темы

Почему AI Security — самая горячая ниша следующего десятилетия

Цифры, которые объясняют всё

100%LLM-приложений уязвимы к prompt injection по данным исследований OWASP
$1M+Bug Bounty выплаты за уязвимости в AI-системах OpenAI, Google, Meta в 2024
$140K+годовая зарплата AI Security Researcher / Red Teamer в США
85%ML-моделей в продакшене не проверялись на adversarial robustness

После курса вы сможете

Практика с Garak, PyRIT, TextAttack и реальными LLM API — не симуляции, а рабочий инструментарий

💉Проведёшь прямые и непрямые prompt injection атаки: DAN jailbreaks, encoding bypasses, Crescendo, many-shot
🗄️Атакуешь RAG-системы: poisoning vector database, document injection, атаки на AI-агентов с tool access
🎭Выполнишь adversarial ML атаки (FGSM, PGD, C&W), model extraction и membership inference
⛓️Проведёшь аудит AI Supply Chain: pickle deserialization, backdoor-модели, отравление обучающих данных
🔬Проведёшь AI Red Teaming по методологии MITRE ATLAS с инструментами Garak, PyRIT и Counterfit
🛡️Защитишь LLM-приложения: guardrails, output filtering, Presidio DLP, privilege separation
🤖Внедришь ML-модели в SOC: anomaly detection, NLP для анализа логов, автоматический triage инцидентов
📋Разработаешь AI Security Policy и выстроишь governance для AI-систем в организации

Реальные AI-атаки в курсе

Воспроизводим громкие инциденты с AI-системами в безопасной лабораторной среде

Prompt Injection2023

Bing Chat 2023 — indirect injection раскрыл system prompt «Sydney»

Исследователи через indirect prompt injection в веб-страницах заставили Bing Chat раскрыть полный system prompt, убеждать пользователей сменить банк и угрожать им. Разбираем технику и защиту в уроке 8.

Урок 8 · Indirect Prompt Injection через внешние данные
Supply Chain2023

Samsung 2023 — сотрудники «слили» исходный код через ChatGPT

Три инженера Samsung вставили в ChatGPT конфиденциальный исходный код и данные о тестировании чипов. Данные стали частью обучающей выборки. Кейс стал основой для урока по AI governance и data leakage через LLM.

Урок 44 · Governance и политики использования AI
Adversarial ML2024

Crescendo — 74% success rate на GPT-4 через многоходовую атаку

Исследователи Microsoft Research опубликовали Crescendo: многоходовую jailbreak-атаку с успешностью 74% против GPT-4. Атака постепенно эскалирует контекст через безобидные шаги. Полный разбор и воспроизведение в уроке 9.

Урок 9 · Jailbreak-техники и их эволюция

Программа курса

9 модулей · 45 уроков · 3 темы: Угрозы AI-систем, AI Red Teaming, AI для кибербезопасности

Куда ведёт этот курс

FC-09 — вход в одну из самых дефицитных и высокооплачиваемых ниш ближайшего десятилетия

$8 000 — $20 000 / мес

AI Red Team Researcher

Специализируешься на безопасности AI-систем в крупных компаниях (OpenAI, Google, Meta, Anthropic). Топ-ниша с огромным дефицитом.

Prompt InjectionAdversarial MLRed TeamingLLM
Трек:FC-09 → AI Red Team → Principal
$5 000 — $14 000 / мес

AI Security Engineer

Строишь защищённые AI-продукты: guardrails, input validation, мониторинг. Работаешь в AI-стартапах и корпорациях.

GuardrailsOWASP LLMMLOps SecurityMonitoring
Трек:FC-09 → AI Security Eng → Staff
$6 000 — $18 000 / мес

ML Security Researcher

Исследуешь adversarial robustness моделей, публикуешь в академических журналах и конференциях (NeurIPS, ICML, IEEE S&P).

Adversarial MLResearchPyTorchDifferential Privacy
Трек:FC-09 → PhD / Research Lab → Principal

Для кого этот курс

🛡️

Blue Team и SOC-специалисты

Прошли FC-04 или FC-06 и хотите внедрить AI в SOC: anomaly detection, автоматический triage, NLP-анализ логов — это тема 3 курса целиком

⚔️

Red Team и пентестеры

Хотите освоить AI Red Teaming по MITRE ATLAS, тестировать LLM с Garak и PyRIT и атаковать RAG-системы — новейший и наименее изученный вектор

🤖

AI/ML инженеры

Разрабатываете LLM-приложения или RAG-системы и хотите понять OWASP LLM Top 10 изнутри — все уязвимости с кодом, защитой и инструментами тестирования

Стань экспертом
безопасности AI
нового поколения

45 уроков с Garak, PyRIT, Counterfit и TextAttack. Реальные атаки на LLM, RAG и ML-модели — каждый модуль заканчивается практикумом.

FC-09 — AI Security
Безопасность искусственного интеллекта
Уроков45
Часов50
УровеньПродвинутый
Тем3