코스 개요

AI 레드 팀 입문

  • AI 위협 환경 이해
  • AI 보안에서의 레드 팀 역할
  • 윤리적 및 법적 고려 사항

적대적 머신러닝

  • 공격 유형: 회피, 중독, 추출, 추론
  • 적대적 예제 생성(e.g., FGSM, PGD)
  • 타깃 공격과 비타깃 공격 및 성공 지표

모델 견고성 테스트

  • 변동성 하의 견고성 평가
  • 모델 사각지대와 실패 모드 탐색
  • 분류, 비전, NLP 모델 스트레스 테스트

AI 파이프라인 레드 팀

  • AI 파이프라인의 공격 표면: 데이터, 모델, 배포
  • 보안이 취약한 모델 API 및 엔드포인트 활용
  • 모델 동작과 출력의 역공학

시뮬레이션과 도구

  • Adversarial Robustness Toolbox(ART) 사용
  • TextAttack 및 IBM ART와 같은 도구로 레드 팀 활동
  • 샌드박싱, 모니터링, 관찰성 도구

AI 레드 팀 전략과 방어 협업

  • 레드 팀 연습 및 목표 개발
  • 결과를 블루 팀에 통신
  • AI 리스크 관리에 레드 팀을 통합

요약 및 다음 단계

요건

  • 머신러닝과 딥러닝 아키텍처에 대한 이해
  • Python 및 ML 프레임워크(e.g., TensorFlow, PyTorch) 사용 경력
  • 사이버 보안 개념이나 공격적 보안 기술에 대한 이해

대상

  • 보안 연구원
  • 공격적 보안 팀
  • AI 확보 및 레드 팀 전문가
 14 시간

참가자 수


참가자당 가격

예정된 코스

관련 카테고리