문의를 보내주셔서 감사합니다! 팀원이 곧 연락드리겠습니다.
Thank you for sending your booking! One of our team members will contact you shortly.
Course Outline
AI 위협 모델링 소개
- AI 시스템이 취약해지는 이유는 무엇인가?
- AI 공격 표면 vs 전통적인 시스템
- 주요 공격 벡터: 데이터, 모델, 출력 및 인터페이스 레이어
AI 모델에 대한 적대적 공격
- 적대적 예제 및 퍼터베이션 기술 이해
- 화이트박스 vs 블랙박스 공격
- FGSM, PGD 및 DeepFool 방법
- 적대적 샘플 시각화 및 제작
모델 역전 및 개인정보 유출
- 모델 출력에서 학습 데이터를 추론
- 회원 추론 공격
- 분류 및 생성 모델의 개인정보 위험
데이터 오염 및 백도어 주입
- 오염된 데이터가 모델 행동에 미치는 영향
- 트리거 기반 백도어 및 트로이 목마 공격
- 탐지 및 정화 전략
강인함 및 방어 기술
- 적대적 학습 및 데이터 증강
- 그래디언트 마스킹 및 입력 사전 처리
- 모델 스무딩 및 정규화 기술
개인정보 보존 AI 방어
- 차등 개인정보 소개
- 노이즈 주입 및 개인정보 예산
- 페더레이티드 학습 및 안전한 집계
AI Security 실습
- 위협 인식 모델 평가 및 배포
- 적용된 환경에서 ART(적대적 강인성 도구 상자) 사용
- 산업 사례 연구: 실제 침해 및 완화
요약 및 다음 단계
Requirements
- 머신러닝 워크플로우와 모델 학습에 대한 이해
- Python와 PyTorch 또는 TensorFlow와 같은 일반적인 ML 프레임워크 경험
- 기본 보안 또는 위협 모델링 개념에 대한 친숙함이 도움이 됩니다
대상자
- 머신러닝 엔지니어
- 사이버 보안 분석가
- AI 연구원 및 모델 검증 팀
14 Hours