Course Outline

인공지능 및 보안의 기초

  • 보안 관점에서 인공지능 시스템의 독특한 특징
  • 인공지능 라이프사이클 개요: 데이터, 학습, 추론 및 배포
  • 인공지능 위험의 기본 분류: 기술적, 윤리적, 법적 및 조직적 위험

인공지능 특유의 위협 벡터

  • 적대적 예시 및 모델 조작
  • 모델 역추적 및 데이터 유출 위험
  • 학습 단계에서 발생하는 데이터 오염
  • 생성형 인공지능에서의 위험 (예: LLM 남용, 프롬프트 주입)

보안 프레임워크

  • NIST AI Risk Management 프레임워크 (NIST AI RMF)
  • ISO/IEC 42001 및 기타 인공지능 특화 표준
  • 인공지능 위험을 기존 기업 GRC 프레임워크에 매핑

인공지능 Go정부 및 준수 원칙

  • 인공지능 책임 및 감사 가능성
  • 투명성, 설명 가능성 및 공정성으로 인한 보안 관련 특성
  • 편견, 차별 및 하류에서의 피해

기업 준비성 및 AI Security정책

  • 인공지능 보안 프로그램에서 역할 및 책임 정의
  • 정책 요소: 개발, 조달, 사용 및 폐기
  • 제3자 위험 및 공급업체 AI 도구 사용

규제 환경 및 글로벌 트렌드

  • EU 인공지능법 및 국제 규제 개요
  • 미국 안전하고 신뢰할 수 있는 인공지능에 대한 행정 명령
  • 신흥 국가 프레임워크 및 세부 산업 가이드라인

선택형 워크숍: 위험 매핑 및 자가 평가

  • 실제 인공지능 사용 사례를 NIST AI RMF 기능에 매핑
  • 기본 인공지능 위험 자가 평가 수행
  • 인공지능 보안 준비성 내부의 간극 식별

요약 및 다음 단계

Requirements

  • 기본 사이버 보안 원칙에 대한 이해
  • IT 거버넌스 또는 위험 관리 프레임워크 경험
  • 일반 AI 개념에 대한 익숙함은 도움이 되지만 필수는 아님

대상

  • IT 보안 팀
  • 위험 관리자
  • 준수 전문가
 14 Hours

Number of participants


Price per participant

Upcoming Courses

Related Categories