Course Outline

인공지능 레드 팀링 개요

  • 인공지능 위협 환경 이해
  • 레드 팀의 역할: 인공지능 보안
  • 윤리적 및 법적 고려 사항

적대적 Machine Learning

  • 공격 유형: 회피, 오염, 추출, 추론
  • 적대적 예제 생성 (예: FGSM, PGD)
  • 대상 vs 비대상 공격 및 성공 지표

모델 강인성 테스트

  • 소란 속에서의 강인성 평가
  • 모델의 맹점과 실패 모드 탐색
  • 분류, 시각, NLP 모델에 대한 스트레스 테스트

인공지능 파이프라인 레드 팀링

  • 인공지능 파이프라인의 공격 표면: 데이터, 모델, 배포
  • 보안이 취약한 모델 API와 엔드포인트 활용
  • 모델 행동 및 출력을 역설계

시뮬레이션 및 도구

  • 적대적 강인성 도구 상자(ART) 사용
  • TextAttack 및 IBM ART와 같은 도구로 레드 팀링
  • 샌드박스, 모니터링 및 관찰 가능성 도구

인공지능 레드 팀 전략 및 방어 Collaboration

  • 레드 팀 연습 및 목표 개발
  • 블루 팀에 결과 전달
  • 레드 팀링을 인공지능 위험 관리에 통합

요약 및 다음 단계

Requirements

  • 머신러닝과 딥러닝 아키텍처에 대한 이해
  • Python와 ML 프레임워크 (예: TensorFlow, PyTorch) 경험
  • 사이버 보안 개념이나 공격 보안 기법에 대한 친숙함

대상

  • 보안 연구자
  • 공격 보안 팀
  • AI 보증 및 레드 팀 전문가
 14 Hours

Number of participants


Price per participant

Upcoming Courses

Related Categories