코스 개요

하이브리드 AI 배포 기초

  • 하이브리드, 클라우드, 엣지 배포 모델 이해
  • AI 워크로드 특성과 인프라 제약 사항
  • 적합한 배포 토폴로지 선택

Docker를 사용한 AI 워크로드 컨테이너화

  • GPU 및 CPU 추론 컨테이너 구축
  • 안전한 이미지와 레지스트리 관리
  • AI를 위한 재현 가능한 환경 구현

클라우드 환경으로 AI 서비스 배포

  • Docker를 통해 AWS, Azure, GCP에서 추론 실행
  • 모델 서빙을 위한 클라우드 컴퓨팅 프로비저닝
  • 클라우드 기반 AI 엔드포인트 보안

엣지 및 온프레미스 배포 기법

  • IoT 장치, 게이트웨이, 마이크로서버에서 AI 실행
  • 엣지 환경을 위한 가벼운 런타임
  • 간헐적인 연결성과 로컬 지속성 관리

하이브리드 네트워킹 및 안전한 연결

  • 엣지와 클라우드 간의 안전한 터널링
  • 인증서, 비밀번호, 토큰 기반 액세스
  • 저지연 추론을 위한 성능 최적화

분산된 AI 배포 오케스트레이션

  • K3s, K8s, 또는 가벼운 오케스트레이션을 사용한 하이브리드 설정
  • 서비스 발견 및 워크로드 스케줄링
  • 다중 위치 롤아웃 전략 자동화

환경 간 모니터링 및 가시성

  • 위치별 추론 성능 추적
  • 하이브리드 AI 시스템을 위한 중앙 집중식 로깅
  • 고장 감지 및 자동 복구

하이브리드 AI 시스템 확장 및 최적화

  • 엣지 클러스터와 클라우드 노드의 확장
  • 대역폭 사용 및 캐싱 최적화
  • 클라우드와 엣지 간 컴퓨팅 부하 균형 조정

요약 및 다음 단계

요건

  • 컨테이너화 개념 이해
  • Linux 명령줄 작업 경험
  • AI 모델 배포 워크플로에 익숙함

대상 청중

  • 인프라 아키텍트
  • 사이트 신뢰성 엔지니어(SREs)
  • 엣지 및 IoT 개발자
 21 시간

참가자 수


참가자별 가격

회원 평가 (5)

예정된 코스

관련 카테고리