문의를 보내주셔서 감사합니다! 팀원이 곧 연락드리겠습니다.
예약을 보내주셔서 감사합니다! 저희 팀 멤버 중 한 분이 곧 연락드리겠습니다.
코스 개요
AI 레드 팀 입문
- AI 위협 환경 이해
- AI 보안에서의 레드 팀 역할
- 윤리적 및 법적 고려 사항
적대적 머신러닝
- 공격 유형: 회피, 중독, 추출, 추론
- 적대적 예제 생성(e.g., FGSM, PGD)
- 타깃 공격과 비타깃 공격 및 성공 지표
모델 견고성 테스트
- 변동성 하의 견고성 평가
- 모델 사각지대와 실패 모드 탐색
- 분류, 비전, NLP 모델 스트레스 테스트
AI 파이프라인 레드 팀
- AI 파이프라인의 공격 표면: 데이터, 모델, 배포
- 보안이 취약한 모델 API 및 엔드포인트 활용
- 모델 동작과 출력의 역공학
시뮬레이션과 도구
- Adversarial Robustness Toolbox(ART) 사용
- TextAttack 및 IBM ART와 같은 도구로 레드 팀 활동
- 샌드박싱, 모니터링, 관찰성 도구
AI 레드 팀 전략과 방어 협업
- 레드 팀 연습 및 목표 개발
- 결과를 블루 팀에 통신
- AI 리스크 관리에 레드 팀을 통합
요약 및 다음 단계
요건
- 머신러닝과 딥러닝 아키텍처에 대한 이해
- Python 및 ML 프레임워크(e.g., TensorFlow, PyTorch) 사용 경력
- 사이버 보안 개념이나 공격적 보안 기술에 대한 이해
대상
- 보안 연구원
- 공격적 보안 팀
- AI 확보 및 레드 팀 전문가
14 시간
회원 평가 (1)
그의 전문적인 지식과 그것을 우리 앞에서 발표한 방식
Miroslav Nachev - PUBLIC COURSE
코스 - Cybersecurity in AI Systems
기계 번역됨