Course Outline

AI 및 보안의 기초

  • AI 시스템이 보안 측면에서 독특한 이유
  • AI 라이프사이클 개요: 데이터, 학습, 추론, 배포
  • AI 위험의 기본 분류: 기술적, 윤리적, 법적, 조직적

AI 고유의 위협 벡터

  • 적대적 예제 및 모델 조작
  • 모델 역추적 및 데이터 누출 위험
  • 학습 단계에서 데이터 오염
  • 생성형 AI의 위험 (예: LLM 악용, 프롬프트 인젝션)

보안 Risk Management 프레임워크

  • NIST AI Risk Management 프레임워크 (NIST AI RMF)
  • ISO/IEC 42001 및 기타 AI 전문 표준
  • 기존 기업 GRC 프레임워크에 AI 위험 매핑

AI Go 관리 및 준수 원칙

  • AI 책임성과 감사 가능성
  • 보안 관련 특성으로 투명성, 설명 가능성, 공정성
  • 편향, 차별, 하류 피해

기업 준비성과 AI Security 정책

  • AI 보안 프로그램에서 역할 및 책임 정의
  • 정책 요소: 개발, 구매, 사용, 퇴역
  • 제3자 위험 및 공급업체 AI 도구 사용

규제 환경 및 글로벌 트렌드

  • EU AI법 및 국제 규제 개요
  • 안전한, 안전하고 신뢰할 수 있는 AI에 대한 미국 대통령령
  • 새로운 국가 프레임워크 및 부문별 지침

선택 워크숍: 위험 매핑 및 자기 평가

  • 실제 AI 사용 사례를 NIST AI RMF 기능에 매핑
  • 기본 AI 위험 자기 평가 수행
  • AI 보안 준비성 내부의 간극 식별

요약 및 다음 단계

Requirements

  • 기본적인 사이버 보안 원칙에 대한 이해
  • IT 거버넌스 또는 리스크 관리 프레임워크 경험
  • 일반적인 AI 개념에 대한 익숙함은 도움이 되지만 필수는 아닙니다

대상

  • IT 보안 팀
  • 리스크 관리자
  • 준수 전문가
 14 Hours

Number of participants


Price per participant

Upcoming Courses

Related Categories