코스 개요

AI 및 보안의 기초

  • 보안 측면에서 AI 시스템이 일반 시스템과 어떻게 다른지
  • AI 라이프사이클 개요: 데이터, 학습, 추론, 및 배포
  • 기술적, 윤리적, 법적, 조직적 위험의 기본 분류

AI 특화 위협 벡터

  • 적대적 예제와 모델 조작
  • 모델 역전과 데이터 누출 위험
  • 학습 단계에서의 데이터 중독
  • 생성형 AI의 위험 (예: LLM 남용, 프롬프트 주입)

보안 위험 관리 프레임워크

  • NIST AI Risk Management Framework (NIST AI RMF)
  • ISO/IEC 42001 및 기타 AI 특화 표준
  • 기존 기업 GRC 프레임워크에 AI 위험 매핑

AI 거버넌스 및 규정 준수 원칙

  • AI 책임감과 감사 가능성
  • 투명성, 설명 가능성, 공정성이 보안 관련 속성으로서의 중요성
  • 편향, 차별, 후속 피해

기업 준비 상태 및 AI 보안 정책

  • AI 보안 프로그램에서의 역할과 책임 정의
  • 정책 요소: 개발, 조달, 사용, 폐기
  • 제3자 위험 및 공급업체 AI 도구 사용

규제 환경 및 글로벌 동향

  • EU AI Act와 국제 규제 개요
  • 안전하고 보안이 확실하며 신뢰할 수 있는 AI를 위한 미국 대통령 명령
  • 신규 국가 프레임워크 및 산업별 가이드라인

옵션 워크샵: 위험 매핑 및 자기 평가

  • 실제 AI 사용 사례를 NIST AI RMF 기능에 매핑하기
  • 기본적인 AI 위험 자기 평가 수행하기
  • AI 보안 준비 상태에서의 내부 간극 식별하기

요약 및 다음 단계

요건

  • 기본 사이버보안 원칙에 대한 이해
  • IT 거버넌스 또는 위험 관리 프레임워크 관련 경력
  • 일반적인 AI 개념에 대한 이해가 도움이 되지만 필수는 아닙니다.

대상자

  • IT 보안 팀
  • 위험 관리자
  • 규정 준수 전문가
 14 시간

참가자 수


참가자별 가격

회원 평가 (1)

예정된 코스

관련 카테고리