Course Outline

자율 시스템의 윤리적 기초

  • AI 에이전트의 자율성 정의
  • 기계 행동에 적용되는 주요 윤리 이론
  • 이해관계자 관점과 가치 민감 설계

사회적 위험 및 고위험 시나리오

  • 공공 안전, 의료, 방위 분야의 자율 에이전트
  • 인간-ai 협업 및 신뢰 경계
  • 의도하지 않은 결과와 위험 증폭 시나리오

법적 및 규제 환경

  • AI 입법 및 정책 동향 개요 (EU AI Act, NIST, OECD)
  • AI 에이전트의 책임, 법적 책임 및 법적 인격
  • 글로벌 규제 이니셔티브 및 격차

설명 가능성과 결정 투명성

  • 블랙박스 자율 결정의 문제점
  • 설명 가능하고 검증 가능한 에이전트 설계
  • 투명성 도구 및 프레임워크 (예: 모델 카드, 데이터시트)

일치, 제어 및 도덕적 책임

  • 에이전트 행동에 대한 AI 일치 전략
  • 인간-인-루프 vs. 인간-온-루프 제어 패러다임
  • 디자이너, 사용자 및 기관 간의 공동 책임

윤리적 위험 평가 및 완화

  • 에이전트 설계의 위험 매핑 및 치명적인 실패 분석
  • 보호 장치 및 꺼짐 스위치 메커니즘
  • 편향, 차별 및 공정성 감사

Go거버넌스 설계 및 기관 감시

  • 책임 있는 AI 거버넌스의 원칙
  • 다중 이해관계자 감시 모델 및 감사
  • 자율 에이전트에 대한 준수 프레임워크 설계

요약 및 다음 단계

Requirements

  • AI 시스템과 기계 학습의 기본 개념 이해
  • 자율 에이전트와 그 응용에 대한 익숙함
  • 기술 정책에서의 윤리적 및 법적 프레임워크 지식

대상 청중

  • AI 윤리학자
  • 정책 입안자 및 규제 기관
  • 고급 AI 전문가 및 연구자
 14 Hours

Number of participants


Price per participant

회원 평가 (1)

Upcoming Courses

Related Categories