문의를 보내주셔서 감사합니다! 팀원이 곧 연락드리겠습니다.
Thank you for sending your booking! One of our team members will contact you shortly.
Course Outline
인공지능 레드 팀링 개요
- 인공지능 위협 환경 이해
- 레드 팀의 역할: 인공지능 보안
- 윤리적 및 법적 고려 사항
적대적 Machine Learning
- 공격 유형: 회피, 오염, 추출, 추론
- 적대적 예제 생성 (예: FGSM, PGD)
- 대상 vs 비대상 공격 및 성공 지표
모델 강인성 테스트
- 소란 속에서의 강인성 평가
- 모델의 맹점과 실패 모드 탐색
- 분류, 시각, NLP 모델에 대한 스트레스 테스트
인공지능 파이프라인 레드 팀링
- 인공지능 파이프라인의 공격 표면: 데이터, 모델, 배포
- 보안이 취약한 모델 API와 엔드포인트 활용
- 모델 행동 및 출력을 역설계
시뮬레이션 및 도구
- 적대적 강인성 도구 상자(ART) 사용
- TextAttack 및 IBM ART와 같은 도구로 레드 팀링
- 샌드박스, 모니터링 및 관찰 가능성 도구
인공지능 레드 팀 전략 및 방어 Collaboration
- 레드 팀 연습 및 목표 개발
- 블루 팀에 결과 전달
- 레드 팀링을 인공지능 위험 관리에 통합
요약 및 다음 단계
Requirements
- 머신러닝과 딥러닝 아키텍처에 대한 이해
- Python와 ML 프레임워크 (예: TensorFlow, PyTorch) 경험
- 사이버 보안 개념이나 공격 보안 기법에 대한 친숙함
대상
- 보안 연구자
- 공격 보안 팀
- AI 보증 및 레드 팀 전문가
14 Hours