문의를 보내주셔서 감사합니다! 팀원이 곧 연락드리겠습니다.
예약을 보내주셔서 감사합니다! 저희 팀 멤버 중 한 분이 곧 연락드리겠습니다.
코스 개요
AI 위협 모델링 소개
- AI 시스템이 취약한 이유는 무엇인가?
- AI 공격 표면과 전통적인 시스템의 비교
- 주요 공격 벡터: 데이터, 모델, 출력 및 인터페이스 레이어
AI 모델에 대한 적대적 공격
- 적대적 예제와 변동 기술 이해
- 화이트박스 vs 블랙박스 공격
- FGSM, PGD, DeepFool 방법론
- 적대적 샘플 시각화 및 생성
모델 반전과 프라이버시 누설
- 모델 출력에서 학습 데이터 추론
- 멤버십 추론 공격
- 분류 및 생성 모델의 프라이버시 위험
데이터 중독과 백도어 주입
- 중독된 데이터가 모델 행동에 미치는 영향
- 트리거 기반 백도어와 트로이 공격
- 감지 및 정화 전략
강건성과 방어 기술
- 적대적 학습과 데이터 확장
- 그래디언트 마스킹 및 입력 전처리
- 모델 평활화 및 정규화 기술
사생활 보호 AI 방어
- 차별적 사생활 보호 소개
- 노이즈 주입과 프라이버시 예산
- 분산 학습과 안전한 집합
AI 보안 실무
- 위협 인식 모델 평가 및 배포
- ART (Adversarial Robustness Toolbox)의 실제 적용
- 산업 사례 연구: 실제 해킹 사례와 완화 방법
요약 및 다음 단계
요건
- 머신 러닝 워크플로와 모델 학습에 대한 이해
- Python 및 PyTorch 또는 TensorFlow 등의 일반적인 ML 프레임워크 사용 경험
- 기본 보안 또는 위협 모델링 개념에 대한 이해가 도움이 됩니다.
대상자
- 머신 러닝 엔지니어
- 사이버 보안 분석가
- AI 연구원 및 모델 검증 팀
14 시간
회원 평가 (1)
그의 전문적인 지식과 그것을 우리 앞에서 발표한 방식
Miroslav Nachev - PUBLIC COURSE
코스 - Cybersecurity in AI Systems
기계 번역됨