코스 개요

로봇공학에서의 안전성과 설명 가능성 소개

  • 로봇 시스템의 안전성 및 투명성 개요
  • 로봇공학 및 AI의 규제 및 윤리적 맥락
  • 표준 및 프레임워크: ISO 26262, ISO 10218, ISO/IEC 42001

위험 및 위험 분석

  • 자율 및 준자율 시스템에서의 위험 식별
  • 고장 모드 및 영향 분석(FMEA) 수행
  • 안전 설계를 통한 위험 측정 및 완화

검증 및 유효성 확인 기술

  • 시뮬레이션 환경에서의 로봇 동작 테스트
  • 형식적 검증 및 테스트 케이스 설계
  • 데이터 기반 유효성 확인 및 모니터링 기술

안전 사례 개발

  • 안전 사례의 구조와 내용
  • 준수 사항과 추적 가능성을 문서화하는 방법
  • 증거 관리 및 위험 정당화를 위한 도구 사용

로봇공학을 위한 설명 가능한 AI

  • 의사결정 과정의 투명성을 높이는 방법
  • ML 기반 제어 시스템에 대한 해석 가능성 기술
  • 사용자와 규제 당국에게 로봇 동작을 설명하는 방법

윤리적 및 거버넌스 고려 사항

  • 로봇공학 및 자율 시스템의 윤리 원칙
  • AI 기반 로봇공학에서의 편향, 책임감, 그리고 책임
  • 혁신과 공중 신뢰 및 규제의 균형 유지

실습 워크샵: 안전하고 설명 가능한 로봇 시나리오 구축

  • ROS 2 또는 Gazebo에서 작은 로봇 시뮬레이션 설계
  • 검증 및 유효성 확인 절차 적용
  • 안전 사례 요약을 개발하고 발표하기

요약 및 다음 단계

요건

  • 로봇 시스템 및 제어 아키텍처에 대한 기본적인 이해
  • Python 프로그래밍 및 시뮬레이션 도구 사용 능력
  • 시스템 공학 또는 안전 프로세스에 대한 지식

대상

  • 로봇 또는 자율 시스템을 다루는 시스템 엔지니어
  • 기능 안전 표준 준수를 보장하는 안전 담당자
  • 로봇 통합 및 배포를 감독하는 기술 매니저
 21 시간

참가자 수


참가자별 가격

회원 평가 (1)

예정된 코스

관련 카테고리