코스 개요

Ollama 소개

  • Ollama란 무엇이며 어떻게 작동하는가?
  • 로컬에서 AI 모델을 실행하는 이점
  • 지원되는 LLMs(Llama, DeepSeek, Mistral 등) 개요

Ollama 설치 및 설정

  • 시스템 요구 사항과 하드웨어 고려사항
  • 다른 운영 체제에서 Ollama 설치하기
  • 의존성 구성 및 환경 설정

로컬에서 AI 모델 실행

  • Ollama에서 AI 모델 다운로드 및 로드하기
  • 명령 줄을 통해 모델과 상호 작용하기
  • 로컬 AI 작업을 위한 기본 프롬프트 엔지니어링

성능 및 리소스 사용 최적화

  • 효율적인 AI 실행을 위한 하드웨어 리소스 관리
  • 지연 시간 줄이고 모델 응답 시간 개선하기
  • 다양한 모델의 성능 벤치마킹하기

로컬 AI 배포 활용 사례

  • AI 기반 챗봇과 가상 비서
  • 데이터 처리 및 자동화 작업
  • 프라이버시 중심의 AI 응용 프로그램

요약 및 다음 단계

요건

  • AI 및 머신 러닝 개념에 대한 기본적인 이해
  • 명령 줄 인터페이스에 익숙함

대상자

  • 클라우드 의존성을 없이 AI 모델을 실행하는 개발자들
  • AI 프라이버시와 비용 효율적인 배포에 관심 있는 비즈니스 전문가들
  • 로컬 모델 배포를 탐색하는 AI 애호가들
 7 시간

참가자 수


참가자별 가격

예정된 코스

관련 카테고리