Course Outline

Ollama 소개

  • Ollama란 무엇이며 어떻게 작동하는가?
  • AI 모델을 로컬에서 실행하는 이점
  • 지원되는 LLM (Llama, DeepSeek, Mistral 등) 개요

Ollama 설치 및 설정

  • 시스템 요구 사항 및 하드웨어 고려 사항
  • 다양한 운영 체제에서 Ollama 설치
  • 의존성 구성 및 환경 설정

로컬에서 AI 모델 실행

  • Ollama에서 AI 모델 다운로드 및 로드
  • 명령 줄을 통해 모델과 상호작용
  • 로컬 AI 작업에 대한 기본 프롬프트 엔지니어링

성능 및 자원 사용량 최적화

  • AI 실행에 대한 하드웨어 자원 관리
  • 대기 시간 줄이기 및 모델 응답 시간 개선
  • 다양한 모델에 대한 성능 벤치마킹

로컬 AI 배포에 대한 Use Case

  • AI 기반 챗봇 및 가상 어시스턴트
  • 데이터 처리 및 자동화 작업
  • 개인정보 보호를 위한 AI 응용 프로그램

요약 및 다음 단계

Requirements

  • AI와 머신러닝 개념에 대한 기본 이해
  • 명령줄 인터페이스에 대한 익숙함

대상

  • 클라우드 의존성 없이 AI 모델을 실행하는 개발자
  • AI 프라이버시와 비용 효율적인 배포에 관심이 있는 Business 전문가
  • 로컬 모델 배포를 탐구하는 AI 애호가
 7 Hours

Number of participants


Price per participant

Upcoming Courses

Related Categories