Course Outline

인공지능 위협 모델링 소개
  • 인공지능 시스템의 취약점은 무엇인가?
  • 인공지능 공격 표면 vs 전통적인 시스템
  • 주요 공격 벡터: 데이터, 모델, 출력, 인터페이스 레이어
인공지능 모델에 대한 적대적 공격
  • 적대적 예제 및 퍼터베이션 기법 이해
  • 화이트박스 vs 블랙박스 공격
  • FGSM, PGD 및 DeepFool 방법
  • 적대적 샘플 시각화 및 제작
모델 역추적 및 개인정보 유출
  • 모델 출력에서 학습 데이터 추론
  • 멤버십 추론 공격
  • 분류 및 생성 모델에서의 개인정보 위험
데이터 오염 및 백도어 삽입
  • 오염된 데이터가 모델 행동에 미치는 영향
  • 트리거 기반 백도어 및 트로이 목마 공격
  • 탐지 및 정화 전략
강인함 및 방어 기법
  • 적대적 학습 및 데이터 증강
  • 경사도 마스킹 및 입력 전처리
  • 모델 스무딩 및 정규화 기법
개인정보 보존 인공지능 방어
  • 차등 개인정보 소개
  • 노이즈 주입 및 개인정보 예산
  • 연합 학습 및 보안 집계
AI Security 실습
  • 위협 인식 모델 평가 및 배포
  • 응용 환경에서 ART (Adversarial Robustness Toolbox) 사용
  • 산업 사례 연구: 실제 침해 사례 및 완화
요약 및 다음 단계

Requirements

  • 머신 러닝 워크플로우와 모델 학습에 대한 이해
  • Python와 PyTorch 또는 TensorFlow과 같은 일반적인 ML 프레임워크에 대한 경험
  • 기본 보안 또는 위협 모델링 개념에 대한 친숙함이 도움이 됨

대상

  • 머신 러닝 엔지니어
  • 사이버 보안 분석가
  • AI 연구자 및 모델 검증 팀
 14 Hours

Number of participants


Price per participant

Upcoming Courses

Related Categories