Thank you for sending your enquiry! One of our team members will contact you shortly.
Thank you for sending your booking! One of our team members will contact you shortly.
Course Outline
인공지능 레드 팀 전략 소개
- 인공지능 위협 지형 이해
- 인공지능 보안에서의 레드 팀 역할
- 윤리와 법적 고려 사항
적대적 Machine Learning
- 공격 유형: 회피, 오염, 추출, 추론
- 적대적 예시 생성 (예: FGSM, PGD)
- 타겟팅된 공격 vs 비타겟팅된 공격 및 성공 지표
모델 강인성 테스트
- 변동 조건 하에서의 강인성 평가
- 모델의 맹점 및 실패 모드 탐구
- 분류, 비전, 및 NLP 모델 스트레스 테스트
인공지능 파이프라인 레드 팀 전략
- 인공지능 파이프라인의 공격 표면: 데이터, 모델, 배포
- 안전한 모델 API 및 엔드포인트 악용
- 모델 행동 및 출력 역공학
시뮬레이션 및 도구
- 적대적 강인성 도구 상자 (ART) 사용
- TextAttack 및 IBM ART와 같은 도구로 레드 팀 전략
- 샌드박싱, 모니터링 및 관찰 가능성 도구
인공지능 레드 팀 전략 및 방어 Collaboration
- 레드 팀 연습 및 목표 개발
- 결과를 블루 팀에 전달
- 인공지능 리스크 관리에 레드 팀 전략 통합
요약 및 다음 단계
Requirements
- 머신 러닝과 딥 러닝 아키텍처에 대한 이해
- Python 및 ML 프레임워크 (예: TensorFlow, PyTorch)에 대한 경험
- 사이버 보안 개념 또는 공격적 보안 기술에 대한 familiarity
대상
- 보안 연구원
- 공격적 보안 팀
- AI 보증 및 레드팀 전문가
14 Hours