Course Outline

AI-특정 위험 이해: Go정부 환경에서의 AI - AI 위험이 전통적인 IT 및 데이터 위험과 어떻게 다른지 - AI 위험의 범주: 기술적, 운영적, 명성, 그리고 윤리적 위험 - 정부에서의 공공 책임과 위험 인식 AI Risk Management 프레임워크 - NIST AI Risk Management 프레임워크 (AI RMF) - ISO/IEC 42001:2023 — AI Management 시스템 표준 - 기타 분야별 및 국제 가이드라인 (예: OECD, UNESCO) AI 시스템에 대한 보안 위협 - 적대적 입력, 데이터 오염 및 모델 역전 - 민감한 학습 데이터 노출 - 공급망 및 타사 모델 위험 Go정부, 감사 및 제어 - 인간-루프 및 책임 메커니즘 - 감사 가능한 AI: 문서화, 버전 관리 및 해석 가능성 - 내부 통제, 감독 역할 및 준수 검증 지점 위험 평가 및 완화 계획 수립 - AI 사용 사례를 위한 위험 등록표 작성 - 조달, 법무 및 서비스 설계 팀과 협업 - 배포 전후 평가 실시 사고 대응 및 공공 부문의 회복력 강화 - AI 관련 사고 및 침해에 대응 - 이해관계자 및 공중과 소통 - AI 위험 관리를 사이버 보안 플레이북에 통합 요약 및 다음 단계

Requirements

  • 정부 기관에서 IT 운영, 위험 관리, 사이버 보안 또는 준수에 대한 경험
  • 조직 보안 관행 및 디지털 서비스 제공에 대한 이해
  • AI 시스템에 대한 기술적인 전문 지식이 필요하지 않음

대상

  • Go정부 IT 팀으로 디지털 서비스 및 시스템 통합에 참여
  • 공공 기관의 사이버 보안 및 위험 전문가
  • 공공 부문 감사, 준수 및 거버넌스 담당자
 7 Hours

Number of participants


Price per participant

Upcoming Courses

Related Categories