코스 개요

AI 위협 모델링 소개

  • AI 시스템이 취약한 이유는 무엇인가?
  • AI 공격 표면과 전통적인 시스템의 비교
  • 주요 공격 벡터: 데이터, 모델, 출력 및 인터페이스 레이어

AI 모델에 대한 적대적 공격

  • 적대적 예제와 변동 기술 이해
  • 화이트박스 vs 블랙박스 공격
  • FGSM, PGD, DeepFool 방법론
  • 적대적 샘플 시각화 및 생성

모델 반전과 프라이버시 누설

  • 모델 출력에서 학습 데이터 추론
  • 멤버십 추론 공격
  • 분류 및 생성 모델의 프라이버시 위험

데이터 중독과 백도어 주입

  • 중독된 데이터가 모델 행동에 미치는 영향
  • 트리거 기반 백도어와 트로이 공격
  • 감지 및 정화 전략

강건성과 방어 기술

  • 적대적 학습과 데이터 확장
  • 그래디언트 마스킹 및 입력 전처리
  • 모델 평활화 및 정규화 기술

사생활 보호 AI 방어

  • 차별적 사생활 보호 소개
  • 노이즈 주입과 프라이버시 예산
  • 분산 학습과 안전한 집합

AI 보안 실무

  • 위협 인식 모델 평가 및 배포
  • ART (Adversarial Robustness Toolbox)의 실제 적용
  • 산업 사례 연구: 실제 해킹 사례와 완화 방법

요약 및 다음 단계

요건

  • 머신 러닝 워크플로와 모델 학습에 대한 이해
  • Python 및 PyTorch 또는 TensorFlow 등의 일반적인 ML 프레임워크 사용 경험
  • 기본 보안 또는 위협 모델링 개념에 대한 이해가 도움이 됩니다.

대상자

  • 머신 러닝 엔지니어
  • 사이버 보안 분석가
  • AI 연구원 및 모델 검증 팀
 14 시간

참가자 수


참가자별 가격

회원 평가 (1)

예정된 코스

관련 카테고리