코스 개요

TinyML 및 임베디드 AI 소개

  • TinyML 모델 배포의 특성
  • 마이크로컨트롤러 환경에서의 제약 사항
  • 임베디드 AI 툴체인 개요

모델 최적화 기초

  • 계산 병목 현상 이해
  • 메모리 집약형 연산 식별
  • 기준 성능 프로파일링

양자화 기법

  • 사후 훈련 양자화 전략
  • 양자화 인지 훈련
  • 정확도와 자원 절충점 평가

프루닝 및 압축

  • 구조화된 및 비구조화된 프루닝 방법
  • 가중치 공유 및 모델 희소성
  • 경량 추론을 위한 압축 알고리즘

하드웨어 인식 최적화

  • ARM Cortex-M 시스템에서 모델 배포
  • DSP 및 가속기 확장에 대한 최적화
  • 메모리 매핑 및 데이터 플로우 고려 사항

벤치마킹 및 검증

  • 지연 시간 및 처리량 분석
  • 전력 및 에너지 소비 측정
  • 정확도 및 견고성 테스트

배포 워크플로 및 도구

  • TensorFlow Lite Micro를 사용한 임베디드 배포
  • Edge Impulse 파이프라인과의 TinyML 모델 통합
  • 실제 하드웨어에서 테스트 및 디버깅

고급 최적화 전략

  • TinyML을 위한 신경망 구조 탐색
  • 하이브리드 양자화-프루닝 접근 방식
  • 임베디드 추론을 위한 모델 증류

요약 및 다음 단계

요건

  • 머신 러닝 워크플로 이해
  • 임베디드 시스템 또는 마이크로컨트롤러 기반 개발 경험
  • Python 프로그래밍에 익숙함

대상자

  • AI 연구원
  • 임베디드 ML 엔지니어
  • 제한된 자원을 가진 추론 시스템에서 일하는 전문가
 21 시간

참가자 수


참가자당 가격

예정된 코스

관련 카테고리