Thank you for sending your enquiry! One of our team members will contact you shortly.
Thank you for sending your booking! One of our team members will contact you shortly.
Course Outline
AI 위협 모델링 소개
- AI 시스템이 취약해지는 이유는 무엇인가?
- AI 공격 표면 vs 전통적인 시스템
- 주요 공격 벡터: 데이터, 모델, 출력 및 인터페이스 레이어
AI 모델에 대한 적대적 공격
- 적대적 예제 및 퍼터베이션 기술 이해
- 화이트박스 vs 블랙박스 공격
- FGSM, PGD 및 DeepFool 방법
- 적대적 샘플 시각화 및 제작
모델 역전 및 개인정보 유출
- 모델 출력에서 학습 데이터를 추론
- 회원 추론 공격
- 분류 및 생성 모델의 개인정보 위험
데이터 오염 및 백도어 주입
- 오염된 데이터가 모델 행동에 미치는 영향
- 트리거 기반 백도어 및 트로이 목마 공격
- 탐지 및 정화 전략
강인함 및 방어 기술
- 적대적 학습 및 데이터 증강
- 그래디언트 마스킹 및 입력 사전 처리
- 모델 스무딩 및 정규화 기술
개인정보 보존 AI 방어
- 차등 개인정보 소개
- 노이즈 주입 및 개인정보 예산
- 페더레이티드 학습 및 안전한 집계
AI Security 실습
- 위협 인식 모델 평가 및 배포
- 적용된 환경에서 ART(적대적 강인성 도구 상자) 사용
- 산업 사례 연구: 실제 침해 및 완화
요약 및 다음 단계
Requirements
- 머신러닝 워크플로우와 모델 학습에 대한 이해
- Python와 PyTorch 또는 TensorFlow와 같은 일반적인 ML 프레임워크 경험
- 기본 보안 또는 위협 모델링 개념에 대한 친숙함이 도움이 됩니다
대상자
- 머신러닝 엔지니어
- 사이버 보안 분석가
- AI 연구원 및 모델 검증 팀
14 Hours