Thank you for sending your enquiry! One of our team members will contact you shortly.
Thank you for sending your booking! One of our team members will contact you shortly.
Course Outline
인공지능 레드 팀링 개요
- 인공지능 위협 환경 이해
- 레드 팀의 역할: 인공지능 보안
- 윤리적 및 법적 고려 사항
적대적 Machine Learning
- 공격 유형: 회피, 오염, 추출, 추론
- 적대적 예제 생성 (예: FGSM, PGD)
- 대상 vs 비대상 공격 및 성공 지표
모델 강인성 테스트
- 소란 속에서의 강인성 평가
- 모델의 맹점과 실패 모드 탐색
- 분류, 시각, NLP 모델에 대한 스트레스 테스트
인공지능 파이프라인 레드 팀링
- 인공지능 파이프라인의 공격 표면: 데이터, 모델, 배포
- 보안이 취약한 모델 API와 엔드포인트 활용
- 모델 행동 및 출력을 역설계
시뮬레이션 및 도구
- 적대적 강인성 도구 상자(ART) 사용
- TextAttack 및 IBM ART와 같은 도구로 레드 팀링
- 샌드박스, 모니터링 및 관찰 가능성 도구
인공지능 레드 팀 전략 및 방어 Collaboration
- 레드 팀 연습 및 목표 개발
- 블루 팀에 결과 전달
- 레드 팀링을 인공지능 위험 관리에 통합
요약 및 다음 단계
Requirements
- 머신러닝과 딥러닝 아키텍처에 대한 이해
- Python와 ML 프레임워크 (예: TensorFlow, PyTorch) 경험
- 사이버 보안 개념이나 공격 보안 기법에 대한 친숙함
대상
- 보안 연구자
- 공격 보안 팀
- AI 보증 및 레드 팀 전문가
14 Hours