Course Outline

인공지능 레드 팀 전략 소개

  • 인공지능 위협 지형 이해
  • 인공지능 보안에서의 레드 팀 역할
  • 윤리와 법적 고려 사항

적대적 Machine Learning

  • 공격 유형: 회피, 오염, 추출, 추론
  • 적대적 예시 생성 (예: FGSM, PGD)
  • 타겟팅된 공격 vs 비타겟팅된 공격 및 성공 지표

모델 강인성 테스트

  • 변동 조건 하에서의 강인성 평가
  • 모델의 맹점 및 실패 모드 탐구
  • 분류, 비전, 및 NLP 모델 스트레스 테스트

인공지능 파이프라인 레드 팀 전략

  • 인공지능 파이프라인의 공격 표면: 데이터, 모델, 배포
  • 안전한 모델 API 및 엔드포인트 악용
  • 모델 행동 및 출력 역공학

시뮬레이션 및 도구

  • 적대적 강인성 도구 상자 (ART) 사용
  • TextAttack 및 IBM ART와 같은 도구로 레드 팀 전략
  • 샌드박싱, 모니터링 및 관찰 가능성 도구

인공지능 레드 팀 전략 및 방어 Collaboration

  • 레드 팀 연습 및 목표 개발
  • 결과를 블루 팀에 전달
  • 인공지능 리스크 관리에 레드 팀 전략 통합

요약 및 다음 단계

Requirements

  • 머신 러닝과 딥 러닝 아키텍처에 대한 이해
  • Python 및 ML 프레임워크 (예: TensorFlow, PyTorch)에 대한 경험
  • 사이버 보안 개념 또는 공격적 보안 기술에 대한 familiarity

대상

  • 보안 연구원
  • 공격적 보안 팀
  • AI 보증 및 레드팀 전문가
 14 Hours

Number of participants


Price per participant

Upcoming Courses

Related Categories