Course Outline

설명 가능한 인공지능(XAI)과 모델 투명성 소개

  • 설명 가능한 인공지능이란 무엇인가?
  • AI 시스템에서 투명성이 중요한 이유
  • AI 모델의 해석 가능성 vs 성능

XAI 기술 개요

  • 모델 독립적 방법: SHAP, LIME
  • 모델 특정 설명 가능성 기술
  • 신경망 및 딥러닝 모델 설명

투명한 AI 모델 구축

  • 실제에서 해석 가능한 모델 구현
  • 투명한 모델 vs 블랙박스 모델 비교
  • 복잡성과 설명 가능성 조절

고급 XAI 도구 및 라이브러리

  • SHAP를 사용하여 모델 해석
  • LIME를 활용한 로컬 설명 가능성
  • 모델 결정 및 행동 시각화

공정성, 편향 및 윤리적 AI 해결

  • AI 모델에서의 편향 식별 및 완화
  • AI의 공정성과 사회적 영향
  • AI 배포에서의 책임성과 윤리 보장

XAI의 실제 적용

  • 의료, 금융 및 정부 부문에서의 사례 연구
  • 규제 준수를 위한 AI 모델 해석
  • 투명한 AI 시스템을 통해 신뢰 구축

설명 가능한 인공지능의 미래 방향

  • XAI의 새로운 연구
  • 대규모 시스템에서 XAI 확장의 도전 과제
  • 투명한 AI의 미래 기회

요약 및 다음 단계

Requirements

  • 머신러닝 및 AI 모델 개발 경험
  • Python 프로그래밍에 대한 익숙함

대상

  • 데이터 과학자
  • 머신러닝 엔지니어
  • AI 전문가
 21 Hours

Number of participants


Price per participant

Upcoming Courses

Related Categories