Course Outline

설명 가능한 AI와 윤리 개요

  • AI 시스템에서 설명 가능성의 필요성
  • AI 윤리와 공정성에서의 도전 과제
  • 규제 및 윤리 기준 개요

윤리적인 AI를 위한 XAI 기술

  • 모델-중립적 방법: LIME, SHAP
  • AI 모델에서 편향 감지 기술
  • 복잡한 AI 시스템에서 해석 가능성 처리

AI의 투명성과 책임성

  • 투명한 AI 시스템 설계
  • AI 결정 과정에서의 책임성 보장
  • AI 시스템 공정성 감사

AI의 공정성과 편향 완화

  • AI 모델에서 편향 감지 및 해결
  • 다양한 인구 통계 그룹 간의 공정성 보장
  • AI 개발에서 윤리 지침 구현

규제 및 윤리 프레임워크

  • AI 윤리 기준 개요
  • 다양한 산업에서의 AI 규제 이해
  • GDPR, CCPA 및 기타 프레임워크와 AI 시스템 일치

윤리적인 AI에서 XAI의 실제 적용

  • 의료 AI에서의 설명 가능성
  • 금융에서의 투명한 AI 시스템 구축
  • 법집행에서의 윤리적인 AI 배포

XAI 및 윤리적인 AI의 미래 동향

  • 설명 가능성 연구의 새로운 동향
  • 공정성과 편향 감지의 새로운 기술
  • 미래의 윤리적인 AI 개발 기회

요약 및 다음 단계

Requirements

  • 머신러닝 모델에 대한 기본 지식
  • AI 개발 및 프레임워크에 대한 familiarity
  • AI 윤리와 투명성에 대한 관심

대상

  • AI 윤리학자
  • AI 개발자
  • 데이터 과학자
 14 Hours

Number of participants


Price per participant

Upcoming Courses

Related Categories