Course Outline

AI 위협 모델링 소개

  • AI 시스템이 취약해지는 이유는 무엇인가?
  • AI 공격 표면 vs 전통적인 시스템
  • 주요 공격 벡터: 데이터, 모델, 출력 및 인터페이스 레이어

AI 모델에 대한 적대적 공격

  • 적대적 예제 및 퍼터베이션 기술 이해
  • 화이트박스 vs 블랙박스 공격
  • FGSM, PGD 및 DeepFool 방법
  • 적대적 샘플 시각화 및 제작

모델 역전 및 개인정보 유출

  • 모델 출력에서 학습 데이터를 추론
  • 회원 추론 공격
  • 분류 및 생성 모델의 개인정보 위험

데이터 오염 및 백도어 주입

  • 오염된 데이터가 모델 행동에 미치는 영향
  • 트리거 기반 백도어 및 트로이 목마 공격
  • 탐지 및 정화 전략

강인함 및 방어 기술

  • 적대적 학습 및 데이터 증강
  • 그래디언트 마스킹 및 입력 사전 처리
  • 모델 스무딩 및 정규화 기술

개인정보 보존 AI 방어

  • 차등 개인정보 소개
  • 노이즈 주입 및 개인정보 예산
  • 페더레이티드 학습 및 안전한 집계

AI Security 실습

  • 위협 인식 모델 평가 및 배포
  • 적용된 환경에서 ART(적대적 강인성 도구 상자) 사용
  • 산업 사례 연구: 실제 침해 및 완화

요약 및 다음 단계

Requirements

  • 머신러닝 워크플로우와 모델 학습에 대한 이해
  • Python와 PyTorch 또는 TensorFlow와 같은 일반적인 ML 프레임워크 경험
  • 기본 보안 또는 위협 모델링 개념에 대한 친숙함이 도움이 됩니다

대상자

  • 머신러닝 엔지니어
  • 사이버 보안 분석가
  • AI 연구원 및 모델 검증 팀
 14 Hours

Number of participants


Price per participant

Upcoming Courses

Related Categories