Thank you for sending your enquiry! One of our team members will contact you shortly.
Thank you for sending your booking! One of our team members will contact you shortly.
Course Outline
인공지능 위협 모델링 소개
- 인공지능 시스템의 취약점은 무엇인가?
- 인공지능 공격 표면 vs 전통적인 시스템
- 주요 공격 벡터: 데이터, 모델, 출력, 인터페이스 레이어
- 적대적 예제 및 퍼터베이션 기법 이해
- 화이트박스 vs 블랙박스 공격
- FGSM, PGD 및 DeepFool 방법
- 적대적 샘플 시각화 및 제작
- 모델 출력에서 학습 데이터 추론
- 멤버십 추론 공격
- 분류 및 생성 모델에서의 개인정보 위험
- 오염된 데이터가 모델 행동에 미치는 영향
- 트리거 기반 백도어 및 트로이 목마 공격
- 탐지 및 정화 전략
- 적대적 학습 및 데이터 증강
- 경사도 마스킹 및 입력 전처리
- 모델 스무딩 및 정규화 기법
- 차등 개인정보 소개
- 노이즈 주입 및 개인정보 예산
- 연합 학습 및 보안 집계
- 위협 인식 모델 평가 및 배포
- 응용 환경에서 ART (Adversarial Robustness Toolbox) 사용
- 산업 사례 연구: 실제 침해 사례 및 완화
Requirements
- 머신 러닝 워크플로우와 모델 학습에 대한 이해
- Python와 PyTorch 또는 TensorFlow과 같은 일반적인 ML 프레임워크에 대한 경험
- 기본 보안 또는 위협 모델링 개념에 대한 친숙함이 도움이 됨
대상
- 머신 러닝 엔지니어
- 사이버 보안 분석가
- AI 연구자 및 모델 검증 팀
14 Hours